人工智慧会否成为人类文明的终极威胁?曾在OpenAI任职的AI研究员、风险分析专家Daniel Kokotajlo,近日对自己早前提出的时间表作出修正,坦言AI整体进展并未如原先预期般迅猛,超级AI全面成形的时间点,恐怕还需要再往后推迟。

他在今年4月曾发布一份名为《AI 2027》的情境推演,引发国际舆论热议。该报告假设,若人工智慧缺乏有效约束,并持续以指数级速度进化,最快可能在2027年实现完全自主写程式与研发能力,进而触发所谓的“智能爆炸”。在这一假设中,AI将不断迭代出更强版本的自己,最终发展成难以控制的超级智能,甚至在2030年代中期对人类社会造成灾难性冲击。

Advertisement

这份推演随后被The Guardian等媒体报道,也一度被美国政界人士引用,但同时招致学界质疑,认为过度戏剧化、接近科幻设定。对此,科科塔伊洛团队当时强调,该模型并非预言,而是基于当下趋势所推估的“高风险可能路径”。

随着近几个月更多实证数据浮现,团队重新检视判断后认为,早期推演低估了现实世界的技术瓶颈与制度惯性。最新修正版本指出,AI真正具备全面自主研发与自我改进能力,较可能落在2030年代初期,而“超级智能”出现的时间,也被延后至约2034年前后,团队则未再具体推算人类文明是否会因此走向灭绝。

科科塔伊洛本人也在X平台发文坦承,现实发展“比AI 2027模型设想的要慢一些”,并指出原本就已将时间点拉长,如今判断仍需进一步后移。

尽管如此,全球科技巨头并未放缓脚步。OpenAI执行长Sam Altman此前曾透露,公司内部目标是在2028年前打造具备高度自动化能力的AI研究系统,但他也直言,这一目标是否能如期实现,仍存在相当大的不确定性。

在AI加速前行与风险评估不断修正之间,人类如何在创新与安全之间取得平衡,仍是一道悬而未决的难题。

上一则新闻背包上的“猪鼻子”不是装饰?90%的人都用错了
下一侧新闻女子发现超市漏洞 狂薅20多万商品