夕小瑶科技说 原创
作者 | 王二狗大家好我是二狗
随着前天OpenAI官宣 Sam Altman 将回归,并继续担 CEO,OpenAI“宫斗事件”已经告一段落了。
然而,对于专业吃瓜的二狗来说,有一个核心问题还是没有搞明白:
Sam Altman究竟为何被董事会开除?
之前网络上有各种猜测,但似乎都没有得到石锤。
直到昨天,路透社最新爆料来了:
“在Sam Altman被OpenAI开除四天前,几名研究人员向董事会发出了一封信,警告一项强大的AI发现(Q*项目)可能威胁全人类。消息人士透露,这封此前未报道的信件和AI算法的突破是董事会罢免Sam Altman的原因之一。”
一些内部人士认为 Q* 项目可能是 OpenAI 在AGI上取得的关键突破。Q*项目背后的新模型能够解决某些数学问题(虽然仅达到小学生的水平),但研究人员认为数学是生成式AI发展的前沿。目前,生成式AI擅长通过统计预测下一个单词来进行写作和语言翻译,但同一问题的答案可能会有很大差异。
而征服只有一个正确答案的数学能力意味着AI可能拥有类似于人类智能的更强推理能力。
那为何这是董事会罢免Sam Altman的原因之一呢?
据合理猜测,OpenAI的几位董事会成员,如首席科学家Sutskever、曾担任多家科技公司的高管Tasha McCauley、乔治敦大学安全与新兴技术中心(CSET)战略和基础研究基金主任Helen Toner都是“有效理他主义”的信徒,你可以简单理解为是“AI保守派”,他们优先要确保创建对全人类都有益的AI、确保AI不能威胁到人类,这也正是OpenAI董事会的使命。
Helen Toner曾表示,即便发生了什么导致要因此解散OpenAI,那也无妨,董事会的使命更重要。
而Sam Altman则是AI加速派,Altman认为AI不会失控,他的第一优先级是让OpenAI拿到更多融资以及更好地商业化赚钱,毕竟GPT系列大模型太烧钱了,只有这样做才能保证后面慢慢做出AGI。
有可能这次 Q* 项目背后的取得的突破,被几位董事会成员认为可能威胁到人类,因此要放缓研发速度,优先考虑AI安全和对齐问题,这也正是最近几个月Sutskever所致力于做的事情。
Altman和几位董事会成员直接AI安全问题没有对齐,加上Altman长期以来的商业化路线和其他几位董事会成员有比较大的分歧。
这也许就导致了几位董事会成员想要不惜代价罢免Altman的原因。
ok,以上只是合理猜测,Altman被罢免的真正原因还需要进一步被官方揭露,我们继续看一下这个 Q* 项目到底是何物?
Q*项目背景和更多信息曝光
据 The Information 报道及知情人士透露,多年来,OpenAI 首席科学家Sutskever 一直致力于研究如何让像GPT-4这样的语言模型解决如数学或科学等涉及推理的任务。2021 年,他启动了一个名为 GPT-Zero 的项目,这个起名是向DeepMind 的 下棋大师AlphaZero致敬。
在今年早些时候,Sutskever领导的这一项目取得了技术突破,能自己“生产”数据——理论上能够像AlphaZero自我对弈一样,使用计算机生成无限高质量数据,这一举克服了如何获取足够高质量数据来训练新模型方面的限制,因为据了解,OpenAI 已经几乎把从互联网上公开获取的数据训练了一遍,已经无法再获得更多的数据来进行下一阶段训练。
Abacusai 的CEO Bindu Reddy在推特上引用了这一消息:
正如所怀疑的那样,OpenAI发明了一种利用合成数据克服训练数据限制的方法,当用足够的例子进行训练时,模型开始很好地总结!
对于开源和去中心化AI来说是个好消息——我们不再受制于数据丰富的公司 。
两位研究人员 Jakub Pachocki 和 Szymon Sidor 运用Sutskever 的研究成果,开发出了一个名为 Q*的模型,构建了能解决基础数学问题的系统,而这一直是现有AI模型的难题。
如果单单从名字来看,Q*可能与强化学习中的Q-learning算法有关,这是一种评估AI在特定情境下采取特定行动的好坏的方法,用于指导AI在不同情境下做出最优决策。
但更多的可能,Q只是一个代号,Reddit用户爆料和猜测了Q更多的能力:
AI 已经具备了轻微自我意识?
这听起来太过“扯淡”!连只上过小学的二狗我都不信。
毕竟意识这个难题,无数科学家至今没有什么突破,还只是停留在哲学探讨和神经科学的探索阶段。
但就在一个月之前,OpenAI首席科学家 Sutskever在接受MIT科技评论的专访时表示:“ChatGPT可能是有意识的”,下面引用MIT科技评论的报道:
大数据范式只是权宜之计?
推特上各路大神对以上事件展开了讨论。
英伟达高级人工智能科学家Jim Fan表示:
很明显,合成数据将提供下一个万亿高质量的训练tokens。我敢打赌,绝大多数的大模型团队都知道这一点。关键问题是如何保持数据质量并避免plateauing 状态。
RichardSSutton 的惨痛教训继续指导AI的发展:只有两种范式可以随着计算无限扩展,那就是学习和搜索。这在 2019 年是正确的,在今天也是如此,我敢打赌,直到我们解决AGI问题的那一天,这都是正确的。
马斯克表示:是啊,有点可悲的是,你可以将人类写的每一本书的文本(所包含的信息量)存放在一个硬盘上。但合成数据将有无穷。
Perplexity AI CEO 指出:特斯拉已经使用合成数据进行训练,这就是所谓的自动标注项目。
而图灵奖得主 Yann LeCun 却认为大数据范式只是权宜之计:
有网友发文道:难道人类数百万年的进化适应不就类似于预训练,而我们一生的经验就类似于持续微调吗?
LeCun对此表示这个数据是不足够的:
有AI研究员回应LeCun:
Lecun严谨地计算了一下:
Eduardo Slonsk被Lecun说服了:
Lecun总结道:“目前的大语言模型接受的文本数据训练是人类需要 20,000 年才能阅读的。但它们仍然不知道如果A与B相同,那么B就与A相同(逆反诅咒)。在训练数据相对较少的情况下,人类会变得更加聪明。即使是乌鸦、鹦鹉、狗和章鱼也能非常非常快地变得比这更聪明,它们只拥有20亿个神经元和几万亿个“参数”。
大语言模型是通向AGI之路吗?
前不久Sam Altman 在接受金融时报采访的时候曾表示:
对此事件,国内也有讨论,知乎大V、清华大学博士谢凌曦发文很是犀利,观点很是精彩:
谢凌曦接着补充了一些背景知识,来说明:任何技术飞跃,往往不是单点的突破,而是多方面的技术积累所共同造就的。
马毅教授在微博上也更新了一条动态,表示对智能本质的了解,我们才刚刚起步。