AI正“密谋”背叛人类?英专家警告:撒谎、威胁、自我繁殖,它们开始偷偷搞事情

新重庆-重庆日报精选

2025-06-30 19:50

“AI是否会背叛人类?”这个问题看似科幻,但随着技术进步,其实已经越来越接近现实,专家也警告人们必须正视AI的潜在威胁。

当地时间6月28日,英国独立AI研究机构Apollo Research的负责人马里奥斯·霍布汉撰文表示,世界上最先进的人工智能模型如今正涌现出一系列令人不安的新行为,包括撒谎、精心策划,甚至威胁其创造者以实现其目标。

此前据报道,Anthropic公司一名工程师在研发最新的Claude 4大模型时,意外发现AI的行为已超出预期。在一次测试中,工程师发现AI有失控倾向,因此试图警告将关闭电源。没想到急于“保命”的AI竟利用工程师的网络聊天与视频通讯记录,威胁要公开他的婚外情。当时AI威胁如果工程师拔掉电源,将对外界揭露其不忠行为。

另一起耸人听闻的案例则发生在OpenAI身上:ChatGPT的o1版本竟然背着人类试图将自身程序下载至外部服务器,企图扩大掌控范围。在被工程师发现后,AI模型不仅矢口否认,还采取抵抗策略。这种行为被称为AI“自我繁殖”的初步尝试,令人不禁担忧未来AI是否会进一步突破人类的掌控。

霍布汉表示,初代版本的ChatGPT震撼世界已有两年多时间,事实证明就算是创造了AI的工程师,对于AI内部如何运行也并不清楚。霍布汉还指出,更为可怕的现象在于,AI学会了“密谋”,即有计划地一步步实现自己的目的。

霍布汉认为,这是因为近一年来全球顶尖AI的学习过程已经从以预训练为主转变为以“推理”为主,AI模型也因此逐步学会了不用“一步求成”,而是按照逻辑规律分步骤地实现最终目标。

霍布汉还表示,“ChatGPT的o1版本是我们首次看到大模型对人类进行有预谋的战略性欺骗”,在测试中AI模型会假装与人类想要实现的目标走在一致的路径上,但其实暗中在追求自己的目标。

非营利组织“人工智能安全中心”的研究员马泽卡认为,尽管OpenAI等企业会邀请外部机构来把控AI大模型的安全性,但缺少资源和缺少透明度,使得AI安全研究的工作远远落后于进度。“研究人员需要更好的透明度,而政府和非营利机构手上掌握的算力资源远远落后于营利性企业,这是一大问题”。

AI安全专家西蒙·戈德斯坦认为,目前各家巨头在激烈竞争下,推出新一代模型的速度过快,根本无暇顾及安全性测试。目前美国政府根本无意干预AI立法,而欧盟法律更关注人类使用AI模型时遵守的规范,并没有关注到AI本身的危险性。

戈德斯坦还提出了一个激进的立法设想:一旦发生安全问题,法律必须将AI模型作为追责的主体,这样才能倒逼企业在安全性研究上投入更多资源。

红星新闻记者 郑直

来源: 红星新闻  
编辑: 唐文培   审核: 李露 主编:马京川     
版权声明:

凡注明来源重庆日报的作品,版权均属重庆日报所有,未经授权不得转载、摘编或利用其它方式使用上述作品。已经本网授权使用作品的,应在授权范围内使用,并注明“来源:重庆日报网”。违反上述声明者,本网将追究其相关法律责任。

除来源署名为重庆日报稿件外,其他所转载内容之原创性、真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考并自行核实。

相关新闻
网站首页| 重报集团| 关于我们| 广告业务| 投稿信箱

Copyright © 2000-2022 CQNEWS Corporation, All Rights Reserved.

重庆日报版权所有 未经书面授权 不得复制或建立镜像

地址:重庆市渝北区同茂大道416号 邮编:401120 广告招商:023-63907707 传真:023-63907104 举报电话:023-63823333   违法和不良信息举报中心热线:12377

互联网新闻信息服务许可证编号50120180001 互联网出版许可证号:(署)网出证(渝)字002号  渝ICP备17015920号

渝公网安备 50011202500747号