发布时间:2026-04-14 08:21:17 点击量:
pg电子游戏,pg电子接口,pg电子官网,pg电子试玩,pg电子app,pg电子介绍,pg电子外挂,pg游戏,pg电子游戏平台,pg游戏官网,PG电子,麻将胡了,PG电子试玩,PG模拟器,PG麻将胡了,pg电子平台,百家乐,龙虎,捕鱼,电子捕鱼,麻将胡了2,电子游戏
于是我决定尝试一些完全不同的事情。我一直很喜欢写作,两年后我在《麻省理工科技评论》获得了一份全职报道AI的职位。这份工作给了我探索这些问题的空间:谁有权决定我们开发什么样的技术?金钱和意识形态是如何驱动这些技术诞生的?我们最终如何才能真正重新构想创新生态系统从而造福全球民众?这就是我决定写这本书的初衷。虽然当时我并没有意识到自己正在为写书做准备,但实际上从2018年接受那份工作开始,我就已经踏上了调研书中故事的旅程。
郝珂灵:我进行了300多场访谈,采访了250多人,其中90多人是OpenAI的前任或现任员工及高管。因此这本书涵盖了OpenAI第一个十年的内幕故事,以及它是如何走到今天这一步的。但我并不想仅仅写一本企业传记。我强烈地感觉到,为了帮助人们理解AI行业的影响,我们必须走出硅谷。这些公司总是宣扬AI将造福全人类,这也是他们的口头使命。但当你去到那些与硅谷截然不同的地方时,这种辞令就开始崩塌。那些地方的语言与硅谷完全不同,历史和文化也存在着本质上的差异。正是从那些地方开始,你才能真正看清这个行业在我们周围扩张的真实面貌。
主持人:郝珂灵,通常我会尝试主导对话,但在今天这种情况下,我觉得跟随你的思路走或许是更好的选择。考虑到这一点,我想问你,这段旅程应该从哪里开始?如果我们讨论该书的主题,应该从哪里切入?是从泛指的AI和人工智能开始吗?另外我想强调一点,这也是在各种对谈中经常被遗漏的,那就是让我们假设目前的观众对AI一无所知。我们要假设他们不知道什么是Scaling Laws、GPU或算力之类的概念,尽量用最通俗易懂的语言来探讨,或者将复杂的术语解释清楚,让尽可能多的人能够听懂。
郝珂灵:好的,我认为应该从AI作为一个学科诞生时讲起。追溯到1956年,一群科学家聚集在达特茅斯学院开创了一个新学科。这门科学学科怀揣着一种雄心壮志。具体来说,达特茅斯学院的一位助理教授John McCarthy决定将这门学科命名为人工智能。这并不是他最初构想的名字。前一年他曾尝试将其命名为自动机研究,但他的某些同事对这个名称感到担忧,因为它将这门学科的理念局限在了重塑人类智能上。在当时以及现在,关于什么是人类智能,科学界并没有达成共识。心理学、生物学和神经学等领域都没有给出明确的定义。
在OpenAI的发展史上,AGI的定义就被反复修改过。当Sam Altman在国会作证时,AGI是一个能够治愈癌症、解决气候变化、消除贫困的系统。当他向消费者推销产品时,AGI则是你能拥有的最神奇的数字助手。当他与Microsoft谈判投资协议时,AGI被定义为一个能产生1000亿美元收入的系统。而在OpenAI自己的官方网站上,AGI被定义为在大多数具有经济价值的工作中超越人类的高度自治系统。这根本不是一个关于单一技术的连贯愿景。这些截然不同的定义完全是针对特定受众抛出的噱头,目的是动员大众监管,或者吸引更多消费者买单。该行业之所以这么做,只是为了获取更多资本和资源以继续这场定义模糊的技术狂飙。
郝珂灵:Elon Musk最终确实与Altman共同创立了OpenAI。当然从Musk的角度来看,他确实感觉纵了。他认为Altman在沟通时刻意迎合他,以此骗取他的信任并让Musk将其视为这项事业的合伙人。不过后来Musk还是离开了OpenAI。通过Musk和Altman目前正在进行的诉讼中披露的文件可以看出,Musk在某种程度上实际上是被排挤出去的。这就是为什么他对Altman怀有如此强烈的个人恩怨,并声称Altman用欺骗的手段将他卷入了这一切。
主持人:所以在2015年,Sam Altman通过博客宣称AI是人类最大的生存威胁之一。与此同时Musk也在发表著名的演讲,比如在麻省理工学院称AI是最大的生存威胁,甚至将开发AI比作召唤恶魔。而你刚才的观点是,Sam Altman只是在模仿Elon Musk的语言,目的是拉拢他加入OpenAI。后续的发展也印证了这一点,目前的诉讼显示Sam Altman可能在某种程度上将Elon Musk排挤出局了。
郝珂灵:从诉讼及披露的文件得知,当时的OpenAI首席科学家Ilya Sutskever和首席技术官Greg Brockman决定成立营利实体时,面临着由Musk还是Altman担任CEO的问题。起初,他们选择了Musk。但我通过报道发现,Altman私下恳求了相识多年的好友Greg Brockman,指出让Musk这位备受瞩目且不可预测的名人担任这家未来可能拥有超强力量的公司的CEO存在危险。这番话不仅说服了Greg,也让Greg随后说服了Ilya。最终他们改变了立场,希望Altman担任CEO,而Musk则以不当CEO就退出为由离开了。
Anthropic的CEO Dario Amodei就是典型的例子。他最初是OpenAI的高管,原以为Altman与自己志同道合,但后来渐渐发现两人的想法背道而驰,并感觉Altman是在利用他的才智和技术去实现一个他根本不认同的未来愿景,因此心生反感。我报道科技行业超过八年,报道过Meta、Google和Microsoft等众多公司,但在OpenAI和Altman身上,我看到了前所未有的两极分化,人们甚至无法断定他究竟是绝世天才还是极恶之徒。
主持人:你刚才提到了Dario,我发现真正有趣的是观察人们的言论如何随利益动机变化而演变。我查看了他们所有的公开言论,包括播客和博客文章。Dario曾是OpenAI的研究副总裁,后来去了Anthropic,他们在开发AI上采取了略有不同的方法。早在2017年他还在OpenAI时曾说过,最极端的情况是对AGI毁灭人类的恐惧,从原则上看并非不可能发生,发生人类文明级灾难的概率可能在10%到25%之间。你还提到了离开的OpenAI联合创始人Ilya,我想问的第一个问题是,Ilya为什么要离开?
我认为有一个关键问题需要反思:我们为什么要努力构建替代人类的AI系统?当下的对话似乎默认了AI行业的前提就是好的,他们说该构建AGI,我们就跟着附和。纵观历史,技术的初衷始终是为了增进人类福祉,而不是取代人类。我对这些公司和科学家的核心批判就在于此:他们全盘接受了这个目标,并利用巨额资本和庞大资源不懈追求。这真的是正确的目标吗?为什么我们不能只构建那些能加速药物研发、改善医疗成果的AI系统呢?那些系统与他们试图复制人类大脑的统计引擎完全是两回事。
郝珂灵:确实如此。OpenAI曾传唤部分批评者,这既像是一场恐吓,也像是一场旨在摸清批评者网络的“钓鱼”行动。那是一个经营小型非营利监督机构的年轻人。在OpenAI尝试从非营利组织向营利性企业转型的关键时期,许多像Mitos这样的公民社会团体试图阻止这一过程暗箱操作,争取更高的透明度并引发公众辩论。就在那时,有人敲开了他的门,递交了法律文件。这些文件要求他提供所有与马斯克可能涉及的沟通记录。这反映了OpenAI一种奇怪的偏执,他们认定马斯克在资助这些人阻挠公司转型。但实际上,他们中没有任何人受马斯克资助。所以面对这个请求,他只能无奈地表示自己拿不出任何文件,因为这些沟通根本就不存在。
我的人物专访在2020年发布后,领导层对此非常不满。在我的书中,我实际引用了一封Sam Altman发给全公司的邮件,他在信中明确表示那篇报道不太妙。从那时起,公司对我的态度就是拒绝参与我做的任何事情,不回应任何采访请求。整整三年时间,他们都拒绝和我交谈。后来我去了Wall Street Journal,因为是顶级大报,他们感到有些被迫重新开启沟通渠道。每当我写完文章发给他们请求评论或采访时,我们确实建立了一种更具建设性的关系。
后来我离职全职写这本书,立刻告诉他们希望继续这种建设性对话,以确保书中能准确反映OpenAI的观点。他们答应安排采访,但在我们反复沟通安排日程时,董事会解雇了Sam Altman。从那时起情况开始恶化,公司对外界的审视变得非常敏感,开始采取拖延战术。我一直追问重新安排面试的事情,结果收到邮件说他们根本不打算参与了。当时我已经订好了飞往旧金山的机票,我告诉他们没关系,我依然会按照流程发送详尽的置评请求。我发了40页的置评请求,给了一个多月的时间让他们回应。就在我们反复交涉时,Altman发布了那条推文。他们从未对那40页中的任何一页做出过回应。
主持人:Sam Altman上过每一个播客,从Tucker Carlson到Theo Von、Joe Rogan等世界各地的节目。我在想他为什么不接受我的采访。我觉得我对每个人都很公平,只问我真正关心的问题,不会带着很深的成见进来,也不会让任何人难堪,即使我有不同的意见也是如此。回到你之前提到的关于OpenAI和这些公司控制研究的方式,你问过他们是否对记者也这样做。显然他们对任何拥有广大大众传播平台的人都会这么做。这不仅关乎你与他们的对话,还关乎你选择让谁登上你的平台。
郝珂灵:这是他们运作机制中非常重要的一部分,利用这些策略来粉饰公司的公众形象,并确保不利的信息和观点不会流传出去。我现在非常庆幸OpenAI很早就对我关上了大门。当时我并不觉得这是一种幸运,甚至觉得自己把事情搞砸了,反思我是不是应该在人物专访里对他们更客气一点,好让自己能维持获取信息的渠道。但作为一名记者,产生这种想法简直是种耻辱。记者应该报道事实,并且始终为了公众利益进行报道。那扇正门永远不会对我敞开,这反而极大地增强了我实话实说的能力。无论公司喜欢与否,我只客观汇报呈现在我面前的事实。他们不需要为我敞开大门,我依然完成了300多场采访。
郝珂灵:是的,我还原了当时的场景。大约有六到七个人直接参与了决策过程,或者曾与直接参与决策的人交谈过。当时Ilya Sutskever看到Altman的行为正导致公司研究成果不佳以及决策失误,于是他去找了独立董事Helen Toner倾诉。由于担心被Altman发现会面临严重后果,Ilya在第一次见面时含糊其辞,试图摸清情况并判断对方是否值得信任。确认之后,Ilya主动与Helen交流,了解她是否也观察到了Altman对公司产生的负面影响。随后,首席技术官Mira Murati与部分董事会成员也进行了沟通。
但扩张过快也导致了决策失误,公司频繁裁员,员工经常突然从Slack上消失,同事们只能通过这种方式得知他人离职。那是一个极度混乱的高压环境。最重要的是,Mira Murati和Ilya Sutskever觉得Altman让情况变得更糟了,他实际上在播种更多的混乱,让团队变得更加分裂。高管和独立董事们都在构建AGI的理念下运作,他们认为这项技术对人类要么是毁灭性的要么是乌托邦式的。在他们看来,绝对不能在如此混乱高压的环境下,去创造一项足以决定世界成败的技术。董事们私下讨论时也认为,虽然在Instacart这样的普通初创公司,这些行为未必足以解雇CEO,但OpenAI肩负的使命完全不同,这些问题已经达到了必须撤换他的标准。
当高管们带着担忧找到董事会时,双方的观察完全吻合。经过每天密集的会议商讨,他们最终得出结论必须罢免Altman。为了防止Altman察觉后利用其极强的说服力扭转局势,他们决定必须迅速行动。于是,他们在没有提前告知任何利益相关者的情况下秘密解雇了Altman。作为OpenAI领投方的Microsoft直到行动前才接到电话通知。这种将所有利益相关方排除在外的做法激怒了所有人,这也直接导致了随后那场迎回Altman的行动,几天后他便重新出任CEO。
主持人:一家大公司的CEO是如何因为董事会成员而被董事会解雇的。在你的书第357页有一段引言,你提到Ilya曾说过:“我不认为Sam是那个应该掌控AGI启动按钮的人。”现在我也在问自己这个问题。我和这里的很多人一起工作,我们公司有150名员工,这些人最了解我。他们看到镜头前的我,也看到镜头后的我。如果他们说“我们认为Stephen不适合主持《Diary of a CEO》”,能让他们说出这种话一定是发生了非同寻常的事情。他们肯定在镜头之外见识了一些糟糕的情况才会认为我不适合出现在镜头前。
郝珂灵:Mira Murati也在那之后不久离开了。这些人中相当一部分都离开了OpenAI,不是吗?回顾OpenAI的起源故事,它始于硅谷核心地带Rosewood Hotel举行的一场晚宴,那是Elon Musk来湾区时最喜欢的去处之一。Altman打算在那场晚宴上招募最初创立OpenAI的元老团队,他到处跟人说Musk会来参加。他给Ilya发了冷邮件并成功邀请了他,因为Ilya特别想见Musk。他还给Greg Brockman、Dario Amodei等人发了邮件,这些人最终都去了OpenAI工作。但在与Altman发生冲突后他们几乎所有人都离开了。Ilya离开后创办了一家名为Safe Superintelligence的公司。
郝珂灵:每一位科技亿万富翁都拥有自己的AI公司,这绝非巧合。他们想要按照自己的形象来创造AI,这正是他们一直相处不睦的原因。共事之后他们最终反目成仇,各自独立建立了自己的组织。Musk离开后创立了xAI,Dario创立了Anthropic,Ilya创办了Safe Superintelligence,Mira创办了Thinking Machines Lab。他们希望掌控自己对这项技术的愿景,从将愿景投入市场的经验中他们得出的最佳途径就是创建一个竞争对手,与OpenAI及市面上所有其他公司展开竞争。
主持人:你是否认为有些AI公司已经意识到自己简直就是在“召唤恶魔”(正如Elon Musk十年前所说),但他们其实并不在乎?因为成为召唤恶魔的人会让你变得举足轻重、权势显赫并名垂青史,哪怕有20%的概率会导致可怕的后果。Dario曾说过大约有10%到25%的概率事情会向着人类文明规模的灾难性方向发展。25%就是四分之一的机会。如果在只有四个弹巢的左里装进子弹,说代价是脑袋挨一枪但可能成为亿万富翁并被永远铭记,我绝不会去冒这个险打这个赌。
我认为这正是AI领域正在发生的事情。这些高管在积极进行神话塑造。我掌握的内部文件显示,他们非常敏锐地意识到如何通过令人眼花缭乱的技术演示吸引公众,精心设计完美的使命感让人们对公司更宽容。他们中的许多人也沉溺于这个神话中,因为他们必须日复一日地体现这个神线%的灾难概率时,他正积极参与并迷失在神话塑造中。由于需要筹集天文数字的资金来资助AI研究和建设数据中心,他们无时无刻不在融资。你不能一边筹款一边说“我有25%的可能性毁掉你孩子的未来”。大脑会产生认知失调,难以同时持有两种冲突的世界观。
郝珂灵:我认为这个问题并不重要。即使把所有CEO都换成更有道德感的人也无法解决问题。核心问题是我们已经构建起了一套权力体系,这些公司和高管可以做出影响全球数十亿人生活的决策,而这数十亿人对此没有任何发言权。这并不是公众投票选出一位承诺立法的领导人就能解决的。考虑到这些公司运作的速度、节奏以及庞大的体量,他们完全能够挥霍数亿美元试图扼杀任何阻碍他们的立法,并制定确立自身优势的法案。作为一个社会我们有时过于执着于讨论这些领导人到底是好人还是坏人。
主持人:但我认为输出结果才是影响最深远的东西。即便它拥有一个完全不同的系统,关键在于它是否达到了同样的水平。比如,它能否为大脑进行手术?能否开车?在洛杉矶,我的车就是自动驾驶的,我可以好几个小时不用碰方向盘。在奥斯汀,我前几天刚见过取消了方向盘和踏板的全新CyberCab。我觉得它是否使用了不同的系统并不重要,如果它在现实世界中行驶且拥有比人类更高的安全记录,那么无论是否具备所谓智能,对我而言都是可以接受的。
在训练自动驾驶汽车时,研发人员会记录大量的视频素材,并雇佣成千上万的人类外包人员为素材中的每一辆车、每一个行人、每一个红绿灯和每一条车道线进行手动标注。这些数据输入AI模型后,模型就能识别这些组件。接着,它被连接到另一个非AI的软件程序,该程序会发出确定性的指令,比如“识别到行人就不准碰撞”或“识别到红灯就停车”。统计引擎的特点在于它是基于概率而非确定性逻辑的,因此系统随时都会出错。从技术上讲,目前根本不可能让它们完全停止犯错。
比如Klarna的CEO曾解雇了一大批人,以为可以用AI取代所有人,结果行不通又不得不请人回来。我专门就这件事给Sebastian发了私信,他说媒体误解了他的推文,他们正比以往任何时候都更加倍投入AI。由于AI的应用,Klarna的员工人数正以每月近一百人的速度缩减,从七千四百人的峰值降到了三千人左右。AI处理了他们70%的客服对话,因为软件的生产成本几乎降到了零。就像代码现在由机器生成一样,最终我们会为那些独特的人造成果支付比以往更高的报酬。Klarna作为一家银行,人们希望与有感情、能引起共鸣甚至带有瑕疵的人建立联系,而不仅仅是机器。因此他们需要在推进AI自动化的同时提供极易获取的人性化体验。
但这些新岗位分为两类:一类是技能要求和报酬更高的高阶职位;另一类则是变得糟糕得多的底层岗位。比如很多营销人员被解雇后,最终去数据标注公司工作,专门教导AI模型去自动化他们刚刚失去的那个岗位。如果该模型掌握了那项技能,又会导致更多的裁员。这成了一个吸收失业人群的去处,甚至包括好莱坞一些屡获殊荣的导演也在秘密从事数据标注糊口。这打破了职业晋升阶梯。入门级和中层职位被掏空,取而代之的是极少数的高阶职位和大量更低阶的职位。阶梯上已经没有横杆了,人们该如何继续职业晋升呢?
主持人:这是一个好问题。关于这一点,我大概有两种思考方式。我认为深厚的专业知识非常有价值。如果你现在是潜在的AI Agent编排者,关键在于对该问什么样的问题有深刻理解,而这正是拥有深厚专业知识的人所具备的。如果我的CFO要负责协调智能体团队执行财务分析等任务,她需要明白如何指挥它们在公司内开展工作,一名实习财务分析师是做不到的。他们需要像Claire那样拥有五十多年的丰富经验。另一方面,我需要像Kaz这样的人。25岁的日本小伙Kaz对AIAgent了如指掌,他好奇心极强,周末都在构建AIAgent来解决生活中的问题。
我需要这两种非常精通的思维方式。一种是代理效能最大化(Agent Maxing),这类人通常是年轻人,他们必须全身心投入且拥有极强的好奇心,这在我的业务中产生了力量倍增器的效应;另一种就是深厚的专业知识。除此之外,我还想到了第三类群体,就是拥有极强线下社交技巧的人。我们在现实生活中确实需要与人见面,比如迎接来访客、与大客户共进午餐并进行应酬。我们的团队有很多线下活动,同时也在全球各地举办社区活动,所以我们需要擅长在线下将人们聚集在一起并组织事务的人才。这三类人是我认为目前无法被取代的。
刚才Klarna的首席执行官Sebastian给我打来电话,分享了他们业务和AI Agent的最新进展。他提到,他们很早就利用AI支持客户服务,不仅处理了更多通话,速度和质量也得到了客户的认可。他们相信在一个AI廉价且普及的世界里,人类互动的价值会更高,因此客户服务的VIP体验将由真人提供。在公司内部,他们通过AI实现了效率提升,避免了裁员,而是通过自然流失将人员规模从6000人缩减到不到3000人,同时营收却翻了一番。去年年底更是出现了重大突破,许多顶尖工程师认为编程问题已经被解决,人们不再需要亲自编写代码了。当被问及这些被解放出来的人都去干什么时,他表示长远来看,他对于AI对社会和人类的积极意义持乐观态度,认为我们将迈向一个更富裕的社会。听了这些,你有什么想法吗?
但我真的很想回到刚发表的那篇《纽约杂志》的文章上。你所描述的情况只适用于一类非常特定的人群,通常是公司内部的业务所有者和领导层,他们可以决定如何分配和利用时间。但这篇文章探讨的是工人阶级,那些非业务所有者的普通人经历了裁员后,被迫转投数据标注行业。顺便一提,数据标注现在是LinkedIn上增长最快的十大职位之一。数据标注就是教这些AI系统实现它们最终展现出的功能,比如向大语言模型输入提示词并示范该如何回答,在完成这些训练之前,ChatGPT并不存在。这就是强化学习过程的一部分。
OpenAI、Grok和Google等公司会雇佣第三方数据标注公司,而这些第三方公司为了以最低成本和最快速度完成任务,就有动力让工人之间相互竞争。接受采访的工人都表示,他们实际上已经失去了作为人的能力。他们只能守在笔记本电脑前等待Slack上的任务提醒,因为这是他们养家糊口的唯一生计。一位女性提到,她对项目起止时间感到极其焦虑,当任务窗口期刚好在孩子放学回家时,她必须疯狂刷任务赚钱,甚至因为孩子分散了注意力而大吼大叫。她觉得自己变成了怪物,连上厕所或照顾自己都不被允许。
郝珂灵:我很想换个角度来重新审视这个问题,并思考在热度并未降温的当下,我们应该做些什么。在这个我们确实意识到这些公司目前需要持续的资源输入以及劳动力来延续其业务的时刻,我们能做什么?停止这个词听起来很生硬,因为现任政府和全球范围都在大力支持这些公司。我总是说我们需要打破这个帝国,开发替代方案。目前我们已经看到令人惊叹的草根运动正在蓬勃发展,它们正对这个帝国推行其议程的方式施加巨大的压力。最近的民意调查显示,80%的美国人认为AI行业需要受到监管。
主持人:作为一名CEO、创始人和热爱技术的人,我常常要在脑海中处理对立的观点。我认为AI绝对令人惊叹,它赋予我创造的能力简直太不可思议了,它能让我在早上开车时感觉更安全。那十几亿使用ChatGPT等AI工具的人可能会说这为他们的生活增加了价值,我也会投资大量使用AI的公司。但是,我们是否可能在认同其价值的同时,也认为存在重大的意外后果?技术及其发展史本应教会我们停下来讨论这些后果。这两个观念可以同时存在于脑海中。
主持人:我认为你不放轻松是一件好事,因为你正在引领一场至关重要的对话。由于算法和信息茧房效应,如今能进行这样长篇的对话非常罕见且重要。你的新书《Dreams and Nightmares in Sam Alt》推荐给所有对此好奇的人。今天我学到了很多。通过你书中广泛且客观的视角、深入的研究,你揭开了故事背后的真相。你显然将人类利益视为北极星,请继续战斗下去。正是你这样的人在激励全世界采取集体行动。强烈建议大家读一读这本书,Karen,谢谢你。