Skip to content

Q-Star 项目浮出水面,OpenAI 到底正在经历什么

Posted on:November 23, 2023 at 10:22 PM

随着这几天OpenAI CEO闹剧的消息不断,大家对于这家目前全球TOP-1的AI公司现状的种种猜测也甚嚣尘上。

有“微软0元购说”:

该事件的最大赢家是微软,微软先前就有 OpenAI 所有代码和模型的永久授权,现在又有了 Sam Altman、Greg Brockman 的加盟,实际上相当于0元收购了 OpenAI。

有“未来穿越假说”:

大概是 openAI 后来发生了不可逆的事情,最后无法控制AI,无奈之下,有人穿越时空回到事情发生之前,组织了这次会议,开除了 Sam, 从而阻止了 AI 的关键版本研发,给人类争取了宝贵时间。

而最新的消息也终于将这些天的迷雾面纱逐渐揭开。

最新消息OpenAI 研究人员在 CEO 被罢免前曾向董事会警告 AI 的最新突破

在 OpenAI 的 CEO 被罢免之前,有几名 OpenAI 的研究人员曾向董事会写信,警告他们 OpenAI 团队发下了一项可能会威胁到人类的强大 AI 成果。

这封之前未被报道过的信件和最新的 AI 研究成果是董事会罢免 Altman 的关键。 Altman 是生成式人工智能的标志性人物,周二晚些时候回归 openAI 之前,有超过 700 名员工威胁要辞职,并与被解雇的 Altman 一起加入微软。

消息人士称,这封信是董事会导致奥特曼被解雇的一系列不满中的一个因素,其中包括对在了解后果之前就将研发成果商业化的担忧。路透社无法查看这封信的副本。写这封信的员工没有回应置评请求。

在被媒体联系后,OpenAI 虽然拒绝置评,但在一份发给员工的内部消息中承认了一个名为 Q* 的项目以及那封在周末事件之前递交给董事会的信件的存在。一位 OpenAI 发言人表示,这条消息是由资深高管 Mira Murati 发送的,旨在提醒员工关注某些媒体报道,但没有对消息准确性发表评论。

OpenAI 的一些人认为,Q*(读作Q-Star)可能会成为这家初创公司探索人工通用智能(AGI)的一个突破口。OpenAI 将 AGI 定义为在最具经济价值的任务中超越人类的自主系统。

这位不愿透露姓名的人士说,在拥有大量计算资源的情况下,新模型能够解决某些数学问题。该人士说,虽然 Q* 的数学能力只有小学生的水平,但通过这些测试让研究人员对 Q* 未来的成功非常乐观。

研究人员认为数学是生成式人工智能发展的前沿。目前,生成式人工智能擅长通过统计预测下一个单词来进行写作和语言翻译,而且对同一个问题的回答也可能千差万别。但是,如果掌握了数学能力(只有一个正确答案),就意味着人工智能将拥有更强的推理能力,与人类智能相媲美。人工智能研究人员认为,这可以应用于新颖的科学研究等方面。

与只能解决有限运算的计算器不同,AGI 可以概括、学习和理解。

消息人士说,研究人员在给董事会的信中指出了人工智能的能力和潜在危险,但没有具体说明信中提到的具体安全问题。长期以来,计算机科学家们一直在讨论高智能机器带来的危险,比如它们是否会认为毁灭人类符合它们的利益。

研究人员还标记了一个 “人工智能科学家 “团队的工作,多个消息来源证实了该团队的存在。该小组由早期的 “Code Gen “和 “Math Gen “团队合并而成,正在探索如何优化现有的人工智能模型,以提高其推理能力,并最终完成科学工作。

在 Altman 的领导下,ChatGPT 成为了历史上增长最快的软件应用程序之一,并吸引了微软的投资和计算资源,从而更接近 AGI。

除了在本月的一次演示中宣布了一系列新工具外,阿尔特曼上周还在旧金山举行的世界领导人峰会上预告说,他相信重大进展就在眼前。

“他在亚太经济合作组织峰会上说:“在OpenAI的历史上,我曾四次(最近一次是在最近几周)有机会置身其中,当我们把无知的面纱推开,把探索的前沿向前推进时,能够做到这一点是我一生的职业荣誉。

一天后,董事会解雇了奥特曼。

关于事件始末的猜测

接下来,让我们尝试还原一下事情的背景以及发展过程:

在 AI 安全和人工通用智能(AGI)定义上,存在激烈争议。Microsoft 对 OpenAI 投入巨资,但后者的条款明确规定,不得利用 AGI 追求利益。

OpenAI 宪章指出:无论是与 Microsoft 还是其他商业和知识产权许可协议,AGI 都被明确排除在外。

Sam Altman 意识到,即使是现阶段的原型 AGI,也足以推动公司业绩飙升,带来巨额利润和更多投资。因此,他们推出了 Dev Day、GPT 商店和收入分成模式。

这一做法引起了 OpenAI 董事会的不满,部分董事仍坚持初衷,认为 AGI 应致力于人类福祉,而非商业利益。他们担忧此举可能导致不安全模型的使用。

目前 AGI 的定义并不明确。若实现重大突破(如 Sam 所述),是否将其归为 AGI 取决于董事会的投票。若获得足够票数宣布其为 AGI,Microsoft 和 OpenAI 将失去数十亿潜在许可收入;反之,他们可以通过授权类似 AGI 技术获利。

几周或几个月前,OpenAI 团队取得重大进展,接近实现 AGI。然而,Sam 和 Brockman 对此隐瞒了董事会的非员工成员。Ilyas 对此感到不满,认为这应视为 AGI,不应授权给任何人,包括 Microsoft。当 AGI 状态的投票提上日程时,董事们因被蒙在鼓里而愤怒,最终决定开除 Sam 并迫使 Brockman 辞职。

Ilyas 近期声称,现有架构已足够实现 AGI,而 Sam 则坚持认为需要新的突破。在这种情况下,Sam 更倾向于将 AGI 商业化,而 Ilyas 则认为我们已经实现了 AGI。

Sam Altman 想要推迟宣布这一技术为 AGI,因为这样做可以延长盈利时间。相反,Ilya 希望尽快将其定性为 AGI,以便按照公司最初的原则使用,而非追求利润。最终,Ilya 在这场权力争斗中胜出。在 Microsoft 还未来得及干预之前,事情已经尘埃落定,因为 Microsoft 表示他们对这一进展毫不知情,而他们显然会倾向于延迟 AGI 的宣布。

更早宣布 AGI 意味着该技术不能被授权给任何方(因此其带来的利润将更具社会公平性,并迫使研究人员专注于一致性和安全),同时还意味着更多监管。可以想象,“人工通用智能已被发明”的新闻头条将在 /r/WorldNews 上引发轰动,引起全球范围内的恐慌,迫使各国政府召开紧急会议,确保不发生 Skynet 式的灾难,安全派对此表示欢迎。

如果不是这样,情况会有所不同。我们可能会继续推进当前的前沿模型和代理共享计划,而不将其定性为 AGI,这样 OAI 和 Microsoft 将因此获得巨大利益。对于关注安全的群体而言,这意味着 AGI 的发展将受到更少监管,同时被加州原则融入到 ChatGPT 和 DALL-E 的输出中,从而让 OAI 可以宣称“我们确实关心安全!”

Ilya 可能并非有意赶走 Sam,但当收入分享方案被提出,而 Sam 辩称 OAI 所拥有的技术并非 AGI 或类似之物时,这可能促使 Ilya 决定发起政变。OpenAI 当前可能计划很快宣布他们已经拥有 AGI,可能在接下来的 6 到 8 个月内,也许是通过部署 GPT-4.5 或比预期更早发布 GPT-5。或许甚至更早。

这并非源于技术突破;而是基于他们已有的技术。这只是一个围绕是否为了利润而将该技术称为 AGI 的争议和冲突。