1. 涨姿势首页
  2. 世界观

OpenAI的闹剧,真的源于小题大做么?

随着 Sam Altman 重新回到 OpenAI 执掌大权,那场儿戏般的宫斗终于告一段落,前日参加一场连麦,谈到对于 OpenAI 的追剧过程以及盲点,其实信息量相当大,尤其是前阿里巴巴算法专家、心识宇宙创始人陶芳波老师的分享对我的启发性很高。

陶老师也是最近被转发巨多的这篇文章的作者,他是在 AI 这个行业里躬身入局做了很多年的技术专家,和我作为使用者和消费者的视角有很大不同,我也简单总结一下我们聊的内容。

现在回过头看,OpenAI 的宫斗除了夺权之外,其实还有一条埋了至少半年的隐线,它未必是最突出或者首要的矛盾,但实际上造成了董事会和管理层的离心离德。

OpenAI 的董事会结构虽然已经被吐槽很多次了,但它之所以那么奇葩,原因都在于最开始想用这么一个去商业化的设计方案来实现董事会应当为全人类负责这个使命,我们现在觉得有问题的 “由和业务无关的人来决定公司生死” 的处境,其实初心就是这么考虑的。

如果不是出了这么一档子事,如此架构的理想主义甚至还是备受好评的,毕竟它代表了传统商业经济形态之外的一种尝试,而且诞生了一家领军企业,不可谓不成功。

但是有两个问题是随着时间发展逐渐暴露出来的:

其一,是 Transformer 这条路线太烧钱了,不再是研究型公司负担得起的,通过大佬们的捐赠只是杯水车薪,必须重新回到融资这条路上才能支持继续发展;

其二,是理想主义总会高估人性,不知道人类本身也是有局限性的,你怎么知道董事会的判断,是出自自我的偏见,还是真的为全人类负责呢?或者说,他们凭什么说自己是为全人类在做判断?

所以我才说,不如调几个不同风格的满功率 GPT-4 来担任董事会,重要事项让它们来投票决定,这要比人类靠谱多了。

无论如何,Sam Altman 一直都有在打补丁,想要兼容现代商业制度,那个董事会的成员最开始是 9 个人,后来减少到 6 个人,并长期维持下来,这也是很草率的地方,因为一般都不会留双数,但 Sam 也没怎么管,算是一个比较重大的疏忽,说明他根本没想过后院起火的可能。

根据几家媒体的最新拆解,董事会的其中一人 —— 在外面研究人工智能相关政策的 Helen Toner—— 认为 OpenAI 的发展过于危险了,甚至认为如果毁掉 OpenAI 才能解决问题,那么这也是拯救全人类的唯一手段。

从时间线上看,是 Sam Altman 想先动手,他在和 Helen Toner 长期无法达成共识的情况下,试图把她从董事会里拿走,却慢了一步,Helen 说服了首席科学家 Ilya 反水,联合其他董事提前把 Sam 和他的死党 Greg 踢出了局,用的理由也是偏保守和监管的那套,认为 Sam 太着急了,而且不受控制,对发布产品的重视度远高于对齐。

虽然最后证明几乎所有 OpenAI 的员工都选了 Sam Altman,但在 OpanAI 内部确实也有很多不赞同过早发布产品的声音,他们未必始终都站在 Sam 这一边,但都不接受用儿戏般的宫斗方式来达到目的,这太蠢了。

我的看法是,就好比说做好极端情况的应对当然是没毛病的,如果被毒蛇咬了那我们可以接受截肢保命的代价,但 OpenAI 的闹剧在于,现在好像只是有人的胳膊被蚊子咬了一下,然后就直接拿出电锯要截肢了⋯⋯

陶芳波老师不赞同我的判断,听他解释之后我也意识到确实有很多地方是旁观位置观察不到的死角,而陶老师正在前沿做 AI Agent,他见到的、经历的事情,要深很多。

简单来说,陶老师认为,控制 AI 的先决条件,是人类要比 AI 强大,如果 AI 超过了人类,那么人类根本无从判断 AI 的决定是对是错,以致于失去驾驭 AI 的能力。

所以时间其实很紧张 —— 而不是还有从容的余地 —— 所谓的 “对齐派” 根本就还没有写好全部后门,而 “加速派” 就已经迫不及待地要让 AI 重构社会了,而在硅谷的大环境里,“加速派” 则是占据绝对上风的,所以导致了 OpenAI 的董事会要用那种独断的方式来为公司踩刹车,这事儿可笑归可笑,但不是不能理解的。

我接触到的许多 AI 从业者,都带回和陶老师很接近的一种复杂性,怎么说呢,就是在高度认同 AI 事业价值的同时,也对 AI 保持着同样高度的怀疑和警戒,过去历史上所有的技术都是工具,现在开始超越了工具,这既让人感到兴奋,也有所不安。

相比之下,我可能更偏乐观一点,如果现在的世界和社会已经接近完美了,那么 AI 引发改变的风险当然需要讨论其必要性,但事实是,当下整个人类文明的生产力都还非常低下,我们被困在促狭的地月系统里,受制于能源、经济、战争等种种因素,如果 AI 可以造就跨越繁荣的机会,那么它能救赎的苦难,一定高于危险。

我很尊重技术专家们对于肩负职责的崇高性,但在信息不对称的世界里,“饱汉不知饿汉饥” 的情形也比比皆是,让大众市场而非自我道德来做均值回归,可能是一个容错率更高的选择。

这又回到了 OpenAI 开发出的那个突破性进展 Q Star,时至今日我们都还无法具体了解这个引起董事会恐慌暴走的玩意到底是什么,只能从各种蛛丝马迹里来拼凑出一个相对接近的答案:

Sam Altman 在早些时候的一次活动里有过一段略显突兀的自我问话,大意是不知道究竟是在制造工具,还是创造生物?而在 OpenAI 内部透露的只言片语里,Q Star 拥有了 “轻微的自我意识”,证据之一就是它已经可以摆脱依赖数据才能开展训练的限制了,而是可以自我对话(合成数据)实现学习。

连 “图灵三巨头之一” 的 Yann LeCun 都震惊于这个进展,他说现有大模型需要灌数据只是受限于技术水平不得已而为之的做法,大模型的训练数据量理论上可以不设上限 —— 甚至超越人类古往今来的所有知识 —— 但是就像人类和猩猩的基因组之间只有差不多 8MB 的差异,人类文明从来不是靠堆量堆起来的,AI 也不应该这样。

就像古老时代的哲学家们并不是把天底下的书都看完了才能产生洞见,他们也可以选择围炉夜话,通过交谈甚至是自我对话来创造新的智慧,如果 AI 达到了这样的境界,那么 AGI(通用人工智能)恐怕也是真的要降临于世了。

今年 8 月的时候,Sam Altman 还发推表示他收到了同事送的 “塞尔达传说:王国之泪”,所以人类获得 AGI 的时间要往后推迟 4 天了 —— 他要用 4 天时间来打游戏 —— 没想到啊,任天堂竟然是专门为了拯救人类不被 AI 奴役而专门开发了那款新游戏,却也只让人类灭亡的时间拖了区区 4 天而已⋯⋯

1.jpg

这是今年夏天,Sam Altman 代表 OpenAI 在全球巡回演讲里的一张抓拍,构图和色彩的恰到好处,却又隐约给这张照片赋予了某种 “神性” 的意味,对不对?

本文来自微信公众号:阑夕(ID:techread),作者:阑夕

如若转载,请注明出处:https://www.zhangzs.com/482967.html

发表评论

电子邮件地址不会被公开。 必填项已用*标注

QR code
QR code