伟大的技术、产品公司,有时会折戟于管理。就好比巅峰期的雅达利因质量品控体系松弛而崩溃。
技术和管理到底能否兼具?类似的考题,被摆在OpenAI面前。
5月15日,GPT-4o发布后仅一天,OpenAI再次成为了万众瞩目的焦点。不过与此前的技术突破不同,此次OpenAI的话题点在于,开始其首席科学家Ilya和超级对齐团队的集体出走。
此前,超级对齐团队曾拥有OpenAI20%的算力资源。因此难免让人怀疑,此次OpenAI短时间、大规模的人事变动是否是其发展战略变动的前哨?
分歧已久
OpenAI内部的分歧存在已久,在去年11月的宫斗事件中早已公之于众。此次Ilya;Sutskever等一行人的出走,可以看作是历史矛盾的延续。
Ilya辞职前,OpenAI内部最大的分歧之一在于对AI安全问题的态度上。
科技巨头和初创公司的互卷下,AI技术研发在快车道上一往直前,AGI时代离我们也越来越近。有人认为OpenAI正在训练更强大的AI系统,目标是最终全面超越人类智能。
未知的全新力量下蕴藏着未知的风险。用前员工的一句话讲,这可能是人类有史以来发生过的最好的事情,但如果我们不小心行事,也可能是最糟糕的事情。
当前的AI监管主要集中于评估风险和采取缓解措施的组合上,这种组合很容易被大型公司钻空子,最终反而疏于了对最需要被监管的前型AI实验室的监管。超级对齐团队解散前,对于不同时间尺度的AI风险,OpenAI有三个团队来分别应对。
对齐或超级对齐是人工智能领域中使用的术语,指训练人工智能系统在人类需求和优先事项范围内运行的工作。2023年6月5日,超级对齐AI团队首次对外宣布成立。这支团队的使命旨在解决如果公司成功构建AGI,实际上会出现不同类型的安全问题——也就是AI智能水平不断提高后未来可能出现的安全问题。
师从人工智能教父Geoffray;Hinton的Ilya是坚持安全第一的安全派。2016年,Ilya以联合创始人、研究总监的身份加入OpenAI,并于2018年担任首席科学家。研发期间,Ilya一直在关注AI大模型的安全问题。
Sam;Altman则是商业派,致力于开发更闪亮的产品,与谷歌等竞争对手的卯足了劲较量。在他看来,AGI的安全治理问题优先级远远不如推出闪亮的产品。虽然Altman在采访中屡次表示对安全问题的重视,但就实际操作而言,算力资源的天平在不断向着研发的一侧倾斜。对于Altman来说,相对于未来态的安全治理,如何加足马力在当前的这场AI竞赛中拔得头筹显然更为重要。
对此,OpenAI的前员工、超级对齐成员之一William;Saunders在Less;Wrong论坛上表示,对OpenAI能否在AGI时代负责任的行动失去了信心。
William;Saunders并非个例。对OpenAI未来AGI安全部署工作的失望成为超级对其团队不少人离开的关键要素。不少人认为,Ilya出走很可能是已经看到了AGI的安全隐患。
OpenAI权力的游戏还有几季?
在技术驱动的进步面纱下,未来安全团队被迫重组。事实上,OpenAI在安全方面的人事一直在不断跳跃。
2021年,GPT-3的团队负责人Dario和Daniela;Amodei因对安全研究的优先次序存在分歧而辞职,转身创办了Anthropic。
同年,RLHF的发明者兼安全研究主管Dr.Paul;Christiano从安全团队中辞职,创办了一个非盈利性的校准研究中心。
2023年11月,OpenAI围绕安全问题爆发宫斗,Sam;Altman在被撤职100小时后重返OpenAI。
2024年,这场权力的游戏继续上演。
2024年2月15日,安全研究员;William;Saunders;在;EA;论坛上总结了自己在;OpenAI;作为超级对齐团队一部分的工作。表示已从OpenAI辞职。
3月17日,Jan;Leike;离职。Jan;Leike参与开发了ChatGPT的核心技术之一——人类反馈强化学习RLHF,在其加入OpenAI后,从代码大模型Codex、ChatGPT的前身InstrucGPT,到ChatGPT、GPT-4,他都是重要贡献者。
4月,Daniel;Kokotajlo在拒绝签署离职协议的情况下辞职,并在此后的媒体采访中公开表示OpenAI正在训练更强大的AI系统,目标是最终全面超越人类智能。,自己已经逐渐对OpenAO领导层以及他们负责地处理AGI的能力失去了信心。
4月11日,安全团队的Leopold;Aschenbrenner与推理团队的Pavel;Izmailov因涉嫌信息泄密而被开除。安全研究员;Cullen;O'Keefe;也离开了OpenAI。
5月15日,OpenAI的联合创始人及首席科学家Ilya宣布离职,并在社交平台X上表示自己将开启接下来的计划——这个项目对我个人来说意义重大,我会在适当的时候分享细节。
Ilya宣布离开几小时后,Ilya的同事,OpenAI超级对齐团队联合主管Jan;Leike光速宣布辞职,在X上留下两个字母:I;resigned。Leike;自2021;年加入;OpenAI,并于2023年开始领导超级对齐团队。在此后几天,Jan;Leike陆续在X上揭开此次出走的内幕:我与;OpenAI;领导层在公司的核心优先事项上存在分歧已有一段时间,直到我们最终达到了临界点过去几个月,我的团队一直在逆风前行建造比人类更聪明的机器本质上是一项危险的工作但在过去的几年里,安全文化和流程已经让位于闪亮的产品。他认为OpenAI应该把更多的精力花在为下一代模型做准备上,包括安全性、监控、准备、安全、对抗鲁棒性、(超级)对齐、保密性、社会影响和相关主题,这些问题很难解决,我担心我们还没有走上正确的轨道。
超级对齐成员之一William;Saunders,以及参与过GPT-4对抗性测试的Daniel;Kokotajlo,此前两人均已离开OpenAI。
在诸多离职的人中,Daniel;Kokotajlo和Jan;Leike属于敢直接批判OpenAI在安全领域和发展方向存在问题的特殊群体。个中原因很可能是OpenAI的封口协议。;根据OpenAI前员工Kelsey;Piper;爆料,OpenAI的员工需签署一份带有非贬低协议的离职协议,如果拒绝签署,其拿到的股权获益将被取消。而Daniel;Kokotajlo则拒绝签署这一协议。
在Sutskever和Leike;退出后,OpenAI向CNN;证实,最近几周已开始解散其超级对齐团队,转而整合各个研究小组的团队成员。OpenAI的发言人表示,该结构将帮助;OpenAI;更好地实现其超级对齐目标。事实上,该业务线新的领导者John;Schulma此前是负责OpenAI现有产品的安全问题。而将纵向超级对齐团队横向合并也意味着,未来安全把关人在一定程度上的消失。
浮世新人换旧人,Sam;Altman在社交平台X上表达了对于Ilya离开的遗憾,表示他走后的OpenAI不再和从前一样,但旋即又在同一条帖子宣布任命了新的首席科学家Jakub;Pachoki。此外,OpenAI近日还聘请了在Google搜索广告业务工作了多年的资深人士Shivakumar;Venkataraman。
自此,OpenAI的发展战略阶段性地实现了表面一致——以党同伐异的代价。
以上就是关于【OpenAI又上演权力的游戏】的相关消息了,希望对大家有所帮助!
原创文章,作者:yajje,如若转载,请注明出处:https://www.yajje.com/baike/1019.html