OpenAI重大人事变故!又一名研究员辞职,并称:追求AGI,是拿人类的未来冒“非常大的风险”

LR阅读:2025-01-29 10:39:23
广告 X
OK欧意app

欧意最新版本

欧意最新版是全球三大交易所之一,注册即送最高6万元礼包

APP下载  官网地址

OpenAI的安全研究员Steven Adler宣布在去年年底离开公司,结束了四年的工作。Adler在X上发文称,全球各大AI实验室和超级大国之间的AGI(通用人工智能)竞赛是“一个非常冒险的**”,并表示,这样的竞赛带来巨大风险。

Adler指出,“没有哪个实验室今天能够解决AI对齐问题。我们越是加速竞赛,找到解决方案的可能性就越小。” AI对齐指的是确保AI系统朝着符合人类目标和价值观的方向发展,而不是相反。

Adler曾在OpenAI担任AI安全负责人,领导与产品发布和长期AI系统相关的安全研究。他在LinkedIn上表示,他还是OpenAI一些博客文章的作者。

在宣布离职的X帖子中,Adler表示,自己在OpenAI的经历“像是一场狂野的旅程,有很多章节”,并补充说他会“怀念其中的许多部分”。然而,他坦言自己对AI发展速度感到“相当恐惧”。他说,“当我考虑将来在哪里抚养孩子,或者为退休储蓄多少时,我不禁想:人类能活到那个时候吗?”

他认为,尽管一些实验室确实希望负责任地开发AGI,但其他实验室可能会为了赶超而采取偷工减料的方式,甚至可能导致灾难。Adler希望实验室能够坦诚讨论需要哪些真正的安全规定来避免这种情况。

Adler的担忧也得到了其他**AI研究人员的认同。加州大学伯克利分校计算机科学教授Stuart Russell曾在《金融时报》中表示:“AGI竞赛是一场向悬崖边缘奔跑的竞赛。”他还指出:“即便是参与竞赛的CEO们也表示,谁赢得竞赛,谁就有很大可能会导致人类灭绝,因为我们不知道如何控制比我们更聪明的系统。”

Adler和Russell的评论正值全球AI竞赛愈发紧张之际。**公司DeepSeek推出的AI模型有可能在成本大幅低于美国**实验室的情况下,达到甚至超越它们的表现。这一消息在周一吓坏了美国投资者,并引发了包括OpenAI CEO Sam Altman在内的科技界**的反应。Altman表示,“有一个新的竞争者是令人振奋的”,并称他会提前推出一些OpenAI的新发布,以回应DeepSeek的“令人印象深刻的模型”。

Adler没有立即回应《财富》杂志在工作时间外的详细询问。

OpenAI面临的安全研究员流失问题并非**。去年,OpenAI就曾因内部关于AI安全的分歧而陷入多次公开争议,甚至在2023年底,Altman曾被短暂停职。尽管Altman在五天后重新上任,但他离职事件一直困扰着公司。

去年,OpenAI失去了两位重要的AI研究员,Ilya Sutskever和Jan Leike。这两人曾领导公司的超级对齐团队,致力于AI安全,并力图实现“科学和技术突破,以引导和控制比我们更智能的AI系统”。Leike公开表示,由于公司对AI安全的关注不足,他才决定离职。他称,过去几年,“安全文化和流程一直被产品开发所取代”。

一些前员工也加入了批评OpenAI公司内部AI安全承诺的行列。前OpenAI治理研究员Daniel Kokotajlo曾在8月表示,曾专注于超级智能AI长期风险的公司员工中,几乎有一半已经离职。

本文 巴适财经 原创,转载保留链接!网址:/article/785509.html

标签:快讯
声明

1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。