当一家掌握重塑文明技术的公司冲向万亿估值时,市场关心增长与算力,但围绕Sam Altman的核心问题却只有一个:信任。一份横跨数百人访谈的调查提出质疑——这位AI时代的关键人物,是否值得托付未来?

据《纽约客》4月6日发表的深度报道,对Altman的质疑并非来自外部,而是出自他最亲近的同事与董事。一份内部备忘录的第一条指控就是“撒谎”。在他们眼中,Altman习惯对不同对象讲述不同版本的现实,而这个人,正主导AI的走向。

2023年被解雇又迅速复职的五天权力风暴,没有澄清问题,反而加深疑问:当资本、员工与技术力量集体站队,一位CEO是否已经超越了任何实质性约束?

与此同时,OpenAI正深入军方、中东资本与敏感国家基础设施领域,而公司内部安全承诺却被削弱,“安全”甚至从核心业务中消失。理想主义外壳,正在被现实利益重塑。

问题因此升级——这不只是个人诚信,而是结构性风险:当AGI的钥匙集中在少数人手中,而其可信度存疑,人类是否还拥有“刹车权”?

Altman曾说,AI需要一点“虚构”的魔力。但真正的不确定在于:当现实与叙事边界开始模糊,我们面对的,究竟是一个改变世界的天才,还是一场无法验证的宏大故事。

"谎言"——前同事的秘密备忘录

2023年秋,OpenAI首席科学家Ilya Sutskever以消失消息的形式,向另外三位董事秘密传递了约70页的内部文件汇编。这批材料包括Slack聊天记录、人力资源文件及说明性文字,部分内容以手机拍照方式留存,显然是为了规避公司设备的监控。

这批内部文件此前从未被完整披露。其中一份专门针对Altman的备忘录以一份清单开篇,标题为"Sam持续展现出……",第一条即是:"撒谎。"

Sutskever积累这些担忧有其思想脉络。他曾是Altman的朋友,2019年甚至在OpenAI办公室主持了联合创始人Greg Brockman的婚礼。

但随着他愈发相信公司正在逼近其终极目标——创造出能够与人类认知能力相媲美乃至超越人类的AI——他对Altman的疑虑与日俱增。他当时对另一位董事说:

"我不认为Sam是那个应该握住按钮的人。"

AI政策专家Helen Toner与企业家Tasha McCauley收到这批文件时,视之为印证:这两位女性已经各自形成了类似判断。"他被赋予了人类的未来,"一位知情董事对《纽约客》说,"但他不值得信任。"

从Y Combinator到OpenAI:一个争议性崛起

Altman并非横空出世。他的职业模式在远早于OpenAI之前便已形成。

他在斯坦福大学读了一年半后,加入了著名程序员Paul Graham创办的创业孵化器Y Combinator(Y.C.)。

他的第一家公司Loopt是一款基于手机位置的原始社交网络,折射出他的一个长期特质:将模糊的规则解读为对自己有利的规则。

Loopt时期,已有员工对他的夸大其词感到困惑。一名前员工回忆,Altman曾大肆吹嘘自己是乒乓球冠军,"密苏里州高中乒乓球冠军之类的",但实际上是公司里打得最差的人之一。

一位曾被投资者安排担任Altman"监护人"的资深员工Mark Jacobstein后来将这种习惯描述为:

我认为我也许能做到'和'我已经做到了'之间的界限模糊,在最极端的形式下,就会走向Theranos那样的骗局(硅谷著名骗局)。"

2014年,Graham退休前将Altman擢升为Y.C.主席。然而到2018年,多位Y.C.合伙人已对Altman的行为深感不满,据多位当时在场人士的陈述,Graham夫妇曾与Altman进行了一次坦率谈话,实质上是迫使他离开。

Graham曾私下对Y.C.同事表示,在Altman被要求离开之前,"Sam一直在欺骗我们。"

Altman本人坚持声称自己从未被Y.C.解雇,且离开完全出于本人意愿。Graham的公开表述则相对模糊,他告诉《纽约客》:"我们没有法律权力解雇任何人。我们所能做的只是施加道义压力。"

OpenAI的创立:用末日叙事募集理想主义

2015年,Altman向Elon Musk发出了一封电子邮件,由此奠定了OpenAI的创立基础。

此前,Altman一贯是科技乐观主义者,但他的AI话语迅速转向了末日论调。他在私下和公开场合反复警告:AI技术不应由追求利润的大公司主导。"如果这件事终究要发生,"他写信给Musk,"最好由Google之外的人来做。"

OpenAI由此成立,被注册为非营利组织,董事会负有将人类安全置于公司利益之上的法定职责,甚至高于公司生存本身。

创始人公开声称,AI可能是人类历史上最危险的发明,因此需要一种非同寻常的公司治理结构。这一叙事极具感召力:它成功地将原本分散在谷歌、学术界的顶尖研究人员招募到一家资金匮乏的新组织。

据Sutskever回忆,当时的招募口号是:"你将拯救世界。"

然而,内部矛盾从一开始便暗流涌动。根据Dario Amodei(此后创立Anthropic)积累的超过200页私人笔记——这批文件从未公开披露——Altman在早期便流露出不同信号。

在2019年与微软谈判10亿美元投资期间,Amodei将维护公司章程中"合并与协助"条款(如果另一家公司率先安全开发出AGI,OpenAI将协助而非竞争)列为首要谈判底线,并得到Altman的口头承诺。

但交易临近签署时,Amodei发现合同中已悄然加入一项赋予微软阻止OpenAI任何合并行为的条款。他当场质问Altman,后者起初否认该条款存在,Amodei不得不逐字朗读合同文本,并让另一名同事当面确认。

Amodei后来在笔记中写道:"他的话几乎肯定是谎言"。

"政变"与复辟:五天内的权力戏剧

2023年11月的那个周末,当董事会通过视频电话宣读声明、告知Altman他已不再是OpenAI员工时,他正身处拉斯维加斯观看F1赛车。

消息震动了整个科技界。微软在解雇发生前数分钟才被告知——这家已向OpenAI投入逾130亿美元的战略伙伴措手不及。"我非常震惊,"微软CEO Satya Nadella后来表示。

LinkedIn联合创始人、OpenAI投资人Reid Hoffman随即展开电话调查,试图弄清Altman究竟犯了什么错。"我根本不知道他妈发生了什么,"Hoffman告诉《纽约客》,"我们在找挪用公款的证据,或者性骚扰,但什么都没找到。"

Altman返回旧金山自己的2700万美元豪宅,迅速组建起一个非正式"流亡政府",成员包括Airbnb联合创始人Brian Chesky、投资人Ron Conway及危机公关人士Chris Lehane。他的电话记录显示,他每天通话时间超过12小时。

与此同时,他协同微软CEO Nadella协调口径,并向代理CEO Mira Murati传递了一个明确信号:他的盟友们"正在全力出击",并正在"发掘负面信息"以损害包括她在内的那些曾反对他的人的名誉。(Altman表示不记得有过这样的对话。)

在强大的外部压力下,多数员工联署了要求Altman复职的公开信,Sutskever最终也在信上签字。

董事会被迫妥协,Helen Toner和Tasha McCauley失去了席位,而新加入的两位董事(前哈佛大学校长Lawrence Summers和前Facebook首席技术官Bret Taylor)均是在与Altman深度沟通后才被选定的。

"你能不能这样做:把Bret、Larry Summers、Adam作为董事会,让我担任CEO,然后由Bret负责调查?"Altman如此发短信给Nadella。不到五天,他便复职了。

员工们将这段历史称为"the Blip"(短暂消失),借用漫威电影中的情节:人物消失后重现,本人毫发无损,而世界已然天翻地覆。

那份从未落纸的调查报告

被解雇的董事们将接受独立调查作为离职条件之一。OpenAI聘请了曾主导安然、世通内部调查的律所WilmerHale负责这项"审查"。但据六名接近调查的知情人士称,整个过程似乎被刻意设计为限制透明度。

调查人员起初未与多位关键当事人接触;部分受访员工因担忧匿名性不足而不敢坦诚发言。"他们只关注董事会风波期间的狭窄时间窗口,而非他长期以来的诚信历史,"一名受访员工说。

2024年3月,OpenAI宣布Altman获得清白,但没有发布任何调查报告。公司官网仅挂出约800字的声明,承认存在"信任破裂"。

据知情人士透露,之所以没有书面报告,是因为根本没有写,调查结论仅以口头简报的形式向Summers和Taylor呈报。"审查得出的结论并不是Sam诚实,"一名接近调查的人士说,"但它确定他可以继续担任CEO。"

数位曾在场的前员工和现任员工对这种不公开的做法感到震惊。Altman复职后不久便重新加入了董事会。

从“人类安全优先”的非营利承诺到营利化再资本化

OpenAI最初的设定,是用非营利结构约束商业冲动,董事会对“人类安全优先于公司成功甚至生存”负有义务。但内部记录显示,这一承诺一直在被侵蚀。

2022年12月的一次董事会会议上,Altman向成员们保证,GPT-4的若干功能已通过安全审查委员会批准。Toner要求查阅文件后发现,最具争议的功能——允许用户"微调"模型和将其部署为个人助理——均未获批准。

此外,她还得知微软在印度提前发布了ChatGPT的早期版本,跳过了必要的安全审查,而Altman在与董事会的多次长时间汇报中从未提及此事。

当安全研究员Jan Leike被任命领导"超级对齐团队"时,官方声明承诺该团队将获得公司算力的"20%"。但据四名亲历者陈述,实际分配的算力在1%至2%之间,且"大部分超级对齐算力实际上用的是最老旧、芯片最差的集群"。

Leike向Murati投诉,后者告诉他不要再提这件事,因为"这个承诺从来就不现实"。

2024年,Sutskever和Leike相继离职。Leike在社交媒体上写道:"安全文化和流程已经让位于闪亮的产品。"OpenAI此后陆续解散了超级对齐团队,在最新的美国国税局申报表中,"安全"一词也从公司"最重要业务活动"的描述中消失。

万亿赌局:向专制政权押注AI未来

Altman在商业上最雄心勃勃的赌注,也是外界最感忧虑的——是将AI基础设施建设向中东专制政权延伸。

早在2016年,他便结识了沙特王储Mohammed bin Salman,并私下称其为"朋友"。2018年,记者Jamal Khashoggi被杀一周后,Altman宣布加入沙特主导的未来城市项目Neom顾问委员会,随后在同事强烈反对下才退出。

但据一名政策顾问回忆,Altman随即开始询问是否能以某种方式绕开道义压力继续从沙特获得资金,"问题不是'这是否是坏事',而是'如果我们这么做,会有什么后果?有出口管制问题吗?会有制裁吗?我能不能不被发现?'"

与此并行,他将目光转向阿联酋。阿联酋总统之弟、国家情报总监Sheikh Tahnoon bin Zayed al-Nahyan掌控着约1.5万亿美元的主权财富,他同时运营着国家控股AI集团G42。

Altman与其建立了深度私人关系,在社交媒体上称之为"亲爱的挚友",并曾于2024年受邀登上其价值2.5亿美元的超级游艇"Maryah"号。

2023年,Altman开始秘密推动一项被称为"ChipCo"的计划:由海湾国家出资数百亿美元,在中东建设大规模芯片代工厂和数据中心。"据我的理解,整件事发生时董事会毫不知情,"一位知情董事说。

美国拜登政府对此深感警惕,商务部官员明确告知Altman:"我们不打算在阿联酋建造先进芯片。"

然而,随着特朗普重返白宫,局面彻底改变。就职第一周,Altman便站在白宫罗斯福厅宣布"星际之门"(Stargate)计划——一项旨在在美国境内构建庞大AI基础设施网络、总额达5000亿美元的合资企业。

随后,拜登政府的AI技术出口限制被废除,Altman陪同特朗普出访沙特王室,而沙特随即宣布成立一家国家支持的大型AI公司。与此同时,OpenAI宣布在阿布扎比建设一个面积相当于中央公园七倍、耗电量堪比迈阿密整座城市的数据中心园区。

"我们正在建造门户,通过这些门户我们正在真正地召唤异类,"一名前OpenAI高管说,"Sam在中东又增加了一个门户。这是有史以来最不负责任的事情之一。"

监管与游说:从“欢迎监管”到对安全法案的强硬反击

在公众形象的塑造上,Altman曾长期扮演科技巨头中的异类——他主动呼吁政府监管AI,2023年在美国参议院司法委员会作证时甚至提议设立新的联邦监管机构。

路易斯安那州参议员John Kennedy看起来颇受感动,靠在手上说,也许应该让Altman本人来执行规则。

但与此同时,据《时代》杂志报道,OpenAI在2022至2023年间成功游说削弱了欧盟一项旨在加强对大型AI公司监管的立法。在加州,当一项与Altman此前国会证词条款高度相近的AI安全法案提交立法机构后,OpenAI公开表示反对,并在私下发出威胁。

"在这一年里,我们看到了来自OpenAI的手段越来越狡猾和具有欺骗性的行为,"一名立法助手对《纽约客》说。投资人Conway游说了包括Nancy Pelosi和Gavin Newsom在内的政界领袖,该法案最终在通过议会后被Newsom否决。

今年,一个名为"引领未来"(Leading the Future)的亲AI超级政治行动委员会开始资助反对AI监管候选人。

OpenAI官方表示不会向此类组织捐款,但该委员会的主要捐款人之一是Greg Brockman,承诺捐出5000万美元。同年,Brockman夫妇还向支持特朗普的"MAGA Inc."捐赠了2500万美元。

权力的解剖:顺从他人与操控他人的矛盾统一体

在《纽约客》采访的数十名当事人中,大多数人分享了对Altman某种共同的心理画像。一名董事说:

"他不受真相约束。他有两种几乎从不同时出现在同一个人身上的特质:第一是强烈渴望取悦他人、在每一次互动中被人喜欢;第二是几乎带有反社会性质的、对欺骗他人所带来后果的漠然。"

这位董事不是唯一一个自发使用"反社会"一词的人。Altman在Y Combinator第一届学员中的同期者、被视为技术圈精神遗产的Aaron Swartz,在去世前数年曾向多位友人表达了对Altman的担忧,措辞强烈。

多名微软高级管理人员也在采访中表示,尽管Nadella长期力挺,微软与Altman的关系已变得紧张。其中一人说:

"他误导、歪曲、重新谈判、食言,我认为他有一定的可能——虽然不大但确实存在——最终被人记住为Bernie Madoff或Sam Bankman-Fried级别的骗子。"

对于这些指控,Altman及其支持者的解释是,他的行为不过是"正常的竞争性商业实践",而他的批评者则是科幻式"末日论者",或是嫉妒他成功的失败者。

"他太沉浸于自我信念,"前董事成员Sue Yoon说,"所以他做了一些在现实世界中毫无逻辑的事。但他不活在现实世界里。"

一万亿美元的问题:他是否应该主宰这一切

OpenAI据报道正准备IPO,潜在估值接近1万亿美元。Altman驾驭着人类有史以来增长最快的初创企业之一,其融资规模——最近一轮单轮即超过1200亿美元,为历史最大私募融资规模的四倍。

在可预见的未来,这家公司的决策将影响数以亿计的人的生活:AI何时应当停止,何时应当继续;它应当帮助谁,拒绝服务谁;在战场上,它是否可以在没有人类监督的情况下自主决策。

问题不仅在于Altman是一个道德上有瑕疵的人——任何一个运营过大公司的人都知道,这本身不足为奇。

问题在于:OpenAI的存在理由,自始至终建立在一个前提之上——它与其他公司不同,它的领导者必须具备"非同寻常的诚信",因为他们掌握的是一项可以改变文明的技术。

Sutskever最初对这一使命深信不疑,正是因为这个信念,他拒绝了谷歌的千万美元年薪。

在一次采访中,记者问Altman,运营一家AI公司是否要求"更高的诚信标准"。

这本应是一个容易回答的问题。他迟疑了,然后说,"我认为很多行业都可能对社会产生巨大影响,无论好坏。"片刻后,他补充道:"是的,这需要更高的诚信,我每天都感受到这份责任的重量。"

然而,OpenAI最新的IRS申报表中,"安全"作为公司核心业务的描述已经消失。曾经的招募口号:"你将拯救世界",已被公司内部的新口号所取代:"感受AGI。"

正如Altman曾以近乎哲学的口吻向媒体说的那样,他允许旗下AI模型保留一定程度的"虚构"能力,而非追求百分之百的准确性,因为"那种魔力,是人们最喜欢的东西"。这也许,是理解他本人的最好注脚。▪