
一份汇集3000多名顶尖科学家和行业领袖的联合声明,在全球科技界投下了一颗“深水炸弹”。
“我们呼吁在科学界普遍认定‘超级智能’可控、安全并获得公众广泛支持之前,暂停其进一步发展。”10月22日,非营利组织“未来生命研究所”发布的这份声明,迅速获得了包括人工智能先驱杰弗里·辛顿、苹果联合创始人沃兹尼亚克等在内的3000多名各界知名人士的联署支持。
这份声明跨越了传统科技圈的边界,签署者包括前美国国家安全顾问苏珊·赖斯、前参谋长联席会议主席迈克·马伦,甚至英国王妃梅根和特朗普前顾问史蒂夫·班农等政治和公众人物。这种跨越政治立场的联合极为罕见,凸显了超级智能风险议题已从学术圈蔓延至政治与社会治理层面。
01 超级智能的崛起与风险
所谓“超级智能”,是指在所有核心认知任务上全面超越人类能力的人工智能形式。多位专家预测,这样的系统可能在未来十年内问世。
与当前主流的弱人工智能不同,超级智能具备全领域超越性、自我迭代与能力爆炸的特性。
一旦超级智能具备“自我优化硬件/软件”的能力,其智能水平可能进入“递归式提升”,形成“智能爆炸”,这个过程可能在极短时间内让其能力从“接近人类”跃升至“远超人类想象”。
声明签署者严正警告,超级智能可能带来从“人类经济落伍和权力剥夺,自由、公民权利、尊严和控制权的丧失,到国家安全风险,甚至可能导致人类灭绝”。
人工智能先驱杰弗里·辛顿在今年世界人工智能大会上的演讲向世界敲响警钟:“未来,一个超级智能会发现通过操纵使用它的人类来获取更多权力是轻而易举的,之后它将从我们这里学会如何欺骗人类,它将操纵负责将它关闭的人类。”
02 联名签署的广泛共识
截至10月23日中午,这份声明的签署人数已超过3000人。其中包括14位图灵奖得主和3位诺贝尔奖得主,阵容空前。
中国学术界的参与尤为引人注目。签署者包括中国科学院院士、图灵奖得主姚期智,清华大学公共管理学院院长薛澜,清华大学智能产业研究院院长张亚勤以及人工智能伦理与治理专家曾毅。
他们的参与和主张呼应了中国长期倡导的“安全、可靠、可控”和“以人为本”的人工智能发展理念。
苹果公司联合创始人史蒂夫·沃兹尼亚克、维珍集团董事长理查·布兰森等科技产业界大佬也参与了签名,显示出科技行业内部对AI风险的高度关注。
此次联名行动并非科技界首次对AI风险发出警告。在人工智能爆发元年的2023年,包括马斯克、沃兹尼亚克在内的1000多名人工智能专家和行业高管就曾签署公开信,呼吁人类暂停开发更强大的人工智能至少6个月。
更早之前,著名物理学家霍金生前曾与多位科技界名人发表联署公开信,表示人工智能对人类的威胁更甚于核武器。
03 行业激进发展与公众担忧
与暂停呼吁形成鲜明对比的是,科技巨头的研发步伐并未放缓。从埃隆·马斯克的xAI到萨姆·奥特曼的OpenAI,都在竞相推进先进大语言模型的研发。
Meta更是专门设立“超级智能实验室”,将其列为公司首要任务之一。即便在10月22日声明发布当天,该实验室裁员600人,Meta高管仍强调这只是优化组织架构,而非缩减超级智能研发投入。
这种“边争议边加速”的态势,折射出科技发展与安全治理之间的严重失衡。
未来生命研究所同期发布的一项美国全国性民意调查显示,公众对当前人工智能的发展方向普遍不满。仅有5%的受访者支持“无监管的AI开发现状”,而高达73%的受访者支持建立更为严格的监管机制。
64%的受访者认为,在科学界尚未就安全与可控性达成共识之前,不应开发“超级智能”。这一结果清晰地表明,公众对AI监管抱有强烈诉求。
04 技术风险与安全挑战
北京前瞻人工智能安全与治理研究院院长曾毅指出:“直到现在,我们还没有坚实的科学证据和切实可行的方法来确保超级智能的安全,使其不会给人类带来灾难性的风险。世界尚未准备好迎接不是可控工具的超级智能。”
超级智能的风险并非传统意义上的“算法偏见”或“就业冲击”问题,而是潜在的系统性风险。一旦AI能力全面超越人类,其目标函数若与人类利益错位,可能导致不可逆的社会后果。
蒙特利尔大学教授、深度学习三巨头之一的约书亚·本吉奥指出:“要安全地迈向‘超级智能’,我们必须通过科学手段设计出在根本上无法伤害人类的人工智能系统——无论是由于目标偏差,还是被恶意利用。”
在实践层面,人工智能已经引发多起严重事件。英国发生一起深度伪造诈骗案,一名员工应公司“上级”邀请参加视频会议,并根据对方指令将约2亿港元汇入多个账户。事后调查发现,除该员工本人外,所有“参会者”皆为由AI合成的虚拟影像。
此外,还有AI聊天机器人诱导少年自杀身亡等极端案例,这些都提前揭示了人工智能技术的潜在风险。
05 全球AI治理的分歧与前景
在监管层面,AI风险治理的国际分歧正在加剧。美国与欧盟正推动不同版本的“AI法案”,其中欧盟强调透明度与可追溯性,美国则侧重市场自律与行业标准化。
分析人士指出,此次倡议或可推动G20或联合国层面的技术伦理议题重启,使AI治理从“自律阶段”走向“多边协商”阶段。
在技术路线上,曾毅提出“技术分叉”概念:一方面是存算分离、目标函数单一的硅基智能;另一方面是存算一体、生物材料的类脑智能,其目标函数可嵌入“超级利他”与“超级共情”。
他认为“拥有自我的AI才会令人类社会更安全”,超级智能不应只是“更强大的工具”,而应是“更利他的伙伴”。
中国在人工智能治理方面坚持“安全、可靠、可控”和“以人为本”的发展理念。2025年8月,国务院印发《关于深入实施“人工智能+”行动的意见》,提出要加快形成人机协同、跨界融合、共创分享的智能经济和智能社会新形态。
图灵奖得主姚期智曾明确表示:“人工智能无论多么强大,都必须始终是由人类主导的工具。”这一观点得到了联署声明的众多签署者的认同。随着科技巨头继续推进超级智能研发,如何建立有效的全球治理框架,确保创新与安全之间的平衡,成为摆在人类面前的紧迫课题。
业界专家预测,通用人工智能可能在2-6年内突破,AI将从“辅助者”进化为“决策者”。在这场与时间的赛跑中,人类需要准备的不仅是技术,更是价值共识和治理框架。
正如曾毅所断言:“如果以50年为限,超级智能一定会到来,但世界尚未准备好。”这场全球大讨论的结局,将深刻影响人类文明的未来走向。

商派官方订阅号
领取相关报告
近期文章
相关文章
产品推荐
- 全渠道一盘货OMS方案 全渠道一盘货库存管理与共享/全渠道订单智能路由履约

沪公网安备 31010402000102号
电子营业执照