1. 涨姿势首页
  2. 世界观

三大巨头联合署名!又一封 “警惕 AI、保卫人类” 的公开信发出

1.jpg

自从生成式 AI 以势如破竹的速度席卷几乎每一个领域,AI 挑战人类的担忧也越来越真实。

上次,马斯克就人工智能研究界和产业界的大佬们一起发布了一篇呼吁暂停半年 AI 大模型训练、加强 AI 技术监管的公开信,呼吁全球所有实验室暂停比更强的 AI 模型研发,暂停时间至少为 6 个月。但结果被人扒出其实他为 Twitter 购买了 1 万个 GPU 用于推进一个全新的 AI 项目,极有可能正在开发自家的大语言模型。

但这一次,又一封呼吁人们要重视 AI 带来威胁的公开信又发出。比上一次更引人注目的是,目前生成式 AI 领域鼎立的三大巨头: OpenAI 、DeepMind(隶属于 Google)、Anthropic 都加入其中。

22 字声明,350 人签名

这份声明由总部位于旧金山的非营利组织 AI 安全中心发布,就他们认为 AI 对人类构成的生存威胁发出了新的警告。整份声明才 22 个字 —— 对,你没看错,才 22 个字,全部内容如下:

减轻 AI 灭绝的风险,应该与管控流行病和核战争等其他社会级规模的风险一样,成为一项全球优先事项。

尽管 AI 威胁论并不新鲜,但如此直白地把它和 “核战争”、“大流行病” 等危害全体人类的危机因素列在一起公开作比较,还是属于首次。

声明的署名部分比声明的内容长得多。

除去 OpenAI 首席执行官 Sam Altman、DeepMind 首席执行官 Demis Hassabis 和 Anthropic 首席执行官 Dario Amode 以外,超过 350 名顶级 AI 研究人员、工程师和创业者也加入其中,包括曾经获得图灵奖的 “AI 三巨头” 之二 Geoffrey Hinton 和 Yoshua Bengio,但另一位和他们一起获奖的、现任 Facebook 母公司 Meta 首席 AI 科学家的 Yann LeCun 尚未签名。

此外,名单里还出现了中国学者的身影,包括中国科学院的自动化研究所人工智能伦理与治理研究中心主任曾毅,清华大学副教授詹仙园等。

完整签名名单,可以在这里进行查看:https://www.safe.ai/statement-on-ai-risk#open-letter

声明发布者 AI 安全中心的执行主任 Hendrycks 表示,这一份声明很简洁,特意没有提出任何减轻人工智能威胁的潜在方法,就是为了避免分歧。“我们不想推动包含 30 种潜在干预措施的庞大措施组合,”Hendrycks 说。“当这种情况发生时,它会淡化信息。”

马斯克公开信的加强版

这封公开信可以看做是今年早些时候马斯克公开信的加强版和 “清白版”。

此前,马斯克联合超过千名产业界和学术界的大佬们在 “生命未来研究所(Future of Life Institute)” 网站上发布联名公告。公开信中主要传达了两个方面的信息:一是警告人工智能存在对人类社会的潜在威胁,要求立刻暂停任何比 GPT-4 更强大的人工智能系统的训练,时间跨度至少 6 个月。二是呼吁整个人工智能领域以及政策制定者们,要共同设计一套全面的人工智能治理系统,对人工智能技术的发展进行监督和审查。

这封信当时在多个层面受到批评。不仅因为马斯克被爆出 “不讲武德”,一边公开呼吁暂停 AI 研究,一边偷偷推进一个全新的 AI 项目,并挖走了一些 Google 和 OpenAI 的技术人才,还因为 “暂停开发” 的建议并不可行,而且也并不能解决问题。

比如当年跟 Yoshua Bengio 一起获得图灵奖,人工智能 “三巨头” 之一的 Yann LeCun 当时就明确表示他并不同意这封信的观点,也没有签名。

不过,此次这封全新的更为含糊的公开信,Yann LeCun 同样没有签名。

人工智能领域的著名学者、Landing AI 的创始人吴恩达当时也在 LinkedIn 上发文表示,认为全面暂停 AI 训练 6 个月的想法是一个糟糕、不切实际的想法。

他表示能够真正让整个行业都暂停研究 AI 训练的唯一办法是政府的介入,但让政府暂停他们不了解的新兴技术是反竞争的,显然也不是一个很好的解决办法。他承认负责任的 AI 很重要、AI 确实也有风险,但一刀切的方式不可取。当前更重要的是各方要在发展 AI 技术的同时更多的投资于人工智能的安全领域,并且配合制定围绕透明度和审计的法规。

Sam Altman 更是在接受美国国会质询的时候就直接表示,马斯克这个呼吁的框架是错误的,日期上的暂停毫无意义。“我们暂停 6 个月,然后呢?我们再暂停 6 个月?” 他说。

但和吴恩达一样,Sam Altman 一直也是要求政府加强对 AI 监管的最积极的呼吁者。

他甚至在听证会上向美国政府提出了监管建议,要求政府组建一个新的政府机构,负责为大型 AI 模型颁发许可,如果有公司模型不符合政府标准,该机构可以撤销该公司的许可证。

上周,他还联合了另外几位 OpenAI 的高管,呼吁建立类似国际原子能机构的国际组织来监管 AI,号召国际间领先的人工智能开发商展开合作。

反对者的声音

和马斯克的公开信一样,这封最新的公开信同样基于 AI 系统能力会迅速提高、但人类没法完全控制其安全运行的假设。

许多专家指出,大型语言模型等系统的迅速改进是可以预见的。一旦人工智能系统达到一定的复杂程度,人类就可能无法控制它们的行为。来自牛津大学的学者 Toby Ord 就表示,正如人们希望大烟草公司能够早一点承认他们的产品会带来严重的健康危害、并开始讨论怎么限制这些危害一样,现在 AI 的领袖们正在这么做。

但也有不少人人怀疑这些预测。他们指出人工智能系统甚至无法处理相对平凡的任务,例如驾驶汽车等。尽管在这一研究领域付出了多年的努力并投入了数百亿美元,但全自动驾驶汽车仍远未成为现实。怀疑论者说,如果人工智能连这一挑战都无法应对,那么在未来几年,这项技术有什么机会造成威胁?

Yann LeCun 就在 Twitter 上表达了对这一担忧的反对,他表示,超人 AI 完全不在人类灭绝危机的名单前面 —— 主要因为它现在还不存在。“在我们可以设计出狗这个级别的 AI(更不用说人类级别的 AI 了)之前,讨论如何让它更安全完全为时过早。”

而吴恩达对于 AI 持有更加乐观的态度。他称他眼里会对大部分人类造成生存危机的因素,包括流行病、气候变化、小行星等,AI 反而会是这些危机的关键解决办法。如果人类想要在未来 1000 年生存并发展,那就需要让 AI 更快发展,而不是更慢。

如若转载,请注明出处:https://www.zhangzs.com/462382.html

发表评论

电子邮件地址不会被公开。 必填项已用*标注

QR code
QR code