企业宣传,产品推广,广告招商,广告投放联系seowdb

OpenAI泄密者 投奔马斯克

刚被OpenAI开除的泄密者,光速投奔马斯克。

当事人 Pavel Izmailov (以下简称小P) ,正是Ilya盟友之一,在Ilya领导的超级对齐团队干过。

半个月前,小P被指疑似泄露Q*相关机密而被开除。虽然不清楚他泄密了个啥,但当时闹得沸沸扬扬。

说时迟那时快,现在,他的推特个人简介上,已经大张旗鼓写着:

要不说老马招人下手快呢,除了小P,不少优秀人才近期都被马斯克揽入麾下。

看热闹的网友炸开了锅。夸他的人不少,称他干得漂亮:

也有人嫌弃死了,觉得雇佣泄露机密信息的人,这行为无异于捡垃圾。

而且最近xai的表现——包括发布Grok 1.5V在内,狠狠刷了波存在感,不由得引人感慨:

聘请OpenAI开除的泄密者

事情是这样的,有个对大模型领域新鲜事儿极其关注的博主,有了个大发现:

马斯克旗下xAI的新晋员工,可不少啊???

而且其中还有数人研究方向与OpenAI最神秘的Q* 算法有点关系,看来马斯克才是Q* 的真正信徒。

具体是哪些人刚刚择xAI而栖了呢?

最为瞩目的就是咱们开头提到过的小P。

他还是纽约大学CILVR小组成员,本人透露2025年秋将加入纽约大学Tandon CSE、Courant CS担任助理教授。

半个月前,他的个人页面还写着,“在OpenAI搞搞大模型推理工作”。

半个月后,物是人非。

但小P的推特置顶还是没有改变,是超级对齐团队的第一篇论文,小P是这篇论文的作者。

超级对齐团队组团于去年7月份,是OpenAI为应对不同时间尺度上大模型可能会产生的安全问题,成立的三大安全团队之一。

超级对齐团队负责遥远的未来,给超越人类的超级智能安全性奠定基础,由 Ilya Sutskever 和领导。

说起来,虽然OpenAI看起来似乎在安全方面很重视,但其内部对AI的安全开发存在很大分歧已不是什么秘密。

这种分歧甚至被认为是去年11月OpenAI董事会宫斗大戏的最主要原因。

网传Ilya Sutskever成为“政变”带头人,就是因为看到了一些东西让他内心不安。

而Ilya带领的这个超级对齐团队,很多成员也是站在Ilya这边,在后来支持奥特曼的比心接龙活动中,这个超级对齐团队成员也基本保持了沉默。

然而宫斗事件平息后,Ilya仿佛在OpenAI蒸发了一般,惹得外界流言四起,但他再也没有公开露面过,甚至都没在网上进行澄清或辟谣。

因此,超级对齐团队现在是个什么情况,咱也不知道。

小P作为超级对齐团队成员、Ilya部下,半个月前从OpenAI被毕业,被网友猜测是奥特曼的“秋后算账”。

人才啊,他连夜投奔马斯克

虽然外界还不知道Q*的全貌,但种种迹象表明,它致力于把大模型与强化学习、搜索算法等结合起来,增强AI推理能力。

除了最有八卦点的小P,下面几位新加入xAI的人才研究方向多多少少与之相关。

,目前还是斯坦福大学的一名博士生。

但从GitHub个人主页可以看到,她的研究方向是 将机器推理与人类推理结合起来 ,特别是新知识的合理性、可解释性和可扩展性。

Eric Zelikman ,斯坦福博士在读生,推特上写明“study why @xai”。

之前,他先后在Google研究院和微软研究院待过一段时间。

他在个人主页上说:“我对算法如何能够学习有意义的表示和推理很着迷,我正在xAI研究这回事儿。”

今年3月他所在团队推出Quiet-Star算法,确实也是Q*,让大模型学会自己独立思考。

Aman Madaan ,卡内基梅隆大学语言技术研究所博士在读生。

他的研究领域包括大型语言模型、反馈驱动的生成以及代码生成和自然语言推理的交叉领域,研究的首要主题是使用推理时间计算(Inference-Time Compute)来增强推理能力(Reasoning)。

攻读博士学位期间,Aman曾担任Google大脑和艾伦人工智能研究所的学生研究员和合作者;更早以前,他还是Oracle的主要技术人员。

加上Pavel Izmailov在内的几位新员工,自此马斯克的技术人才版图已扩增至34人(不包括马斯克本人),相比于最开始12人的创始团队增长了约2倍。

在新加入的成员当中,华人共计7人,加上创始团队的5人,自此共有12人。

而从机构分布上看,主要还是集中于谷歌、斯坦福、Meta、OpenAI、微软等机构,他们都有丰富的大模型训练经验, 比如GPT系列、大小羊驼系列,以及谷歌Meta相关大模型。

从加入时间来看,更多还是集中在今年2-3月,平均每5天就有一名新成员加入共计13人。去年8-10月间只有5人加盟。

而如果结合相对应Grok的进展,也能看到马斯克xAI每一阶段招人计划。

比如今年3月29日,马斯克突然发布Grok-1.5,上下文长度飙升,从原本的8192增长到128k,和GPT-4齐平。

而将时间推回一个月(今年2月),OpenAI前员工Juntang Zhuang加盟xAI。他在OpenAI发明了GPT-4 Turbo支持128k长上下文能力的算法。

还有像今年4月15日, Grok-1.5V多模态模型发布 ,它能处理除文本信息外,包括图表、屏幕截图、照片在内的各种视觉信息。

而今年3月,LLaVA一作Haotian Liu才刚刚加盟。LLaVA是端到端训练多模态大模型,展现出了类似于GPT-4V的能力。而新版LLaVA-1.5 在 11 个基准上实现了SoTA。

那现在不妨可以大胆设想一下, 新一波人才引进,Grok可能会有什么样的新升级呢?

网友:不管,Grok-1.5在哪呢(还没开源呢)。

但是不管怎么说,根据此前马斯克所说的人才标准来看,这位网友道出了“实情”:

80个小时?!

量子位掐指一算,那不就是一周无休每天工作11.5个小时吗……

别说智商了,这活从体力上咱就干不了干不了。

© 版权声明
评论 抢沙发
加载中~
每日一言
不怕万人阻挡,只怕自己投降
Not afraid of people blocking, I'm afraid their surrender