OpenAI真正想要的是什么 翻译by GPT-4 当明星和他的随行人员涌入等待的奔驰商务车时,空气中充满了几乎与披头士狂热的能量。他们刚从一个活动中溜出来,正赶往另一个活动,然后再到另一个,那里有一个疯狂的人群在等待。当他们在伦敦的街道上穿梭——从霍尔本到布卢姆斯伯里的短途旅行——就好像他们正在经历文明的前后时刻。车内的这位历史性人物吸引了全球的关注。从排队等待的学生到首相,每个人都想得到它的一部分。 在这辆豪华的车里,大口吃着沙拉的是38岁、头发整齐的企业家Sam Altman,他是OpenAI的联合创始人;还有一个公关人员、一个安保专家和我。Altman穿着一套蓝色西装,搭配一件不加领带的粉色衬衫,他正忙于在伦敦的一个月长的全球旅行,途经六个大陆的25个城市。当他大口吃着他的绿叶蔬菜——今天没有时间坐下来吃午饭——他回想起前一天晚上与法国总统Emmanuel Macron的会面。相当不错的家伙!而且对人工智能非常感兴趣。 波兰的首相也是如此。还有西班牙的首相。 与Altman一起,我几乎可以听到“A Hard Day’s Night”开头的那个悠扬、模棱两可的和弦——预示着未来。去年11月,当OpenAI发布了其大热产品ChatGPT时,它引发了一场自互联网闯入我们生活以来从未见过的技术爆炸。突然间,图灵测试成为了历史,搜索引擎变成了濒危物种,再也不能信任任何一篇大学论文。没有工作是安全的。没有科学问题是不变的。 Altman并没有进行研究,训练神经网络,或编写ChatGPT及其更聪明的兄弟GPT-4的接口。但作为CEO——和他的联合创始人Elon Musk一样,他是一个年轻版的梦想家/实践家,没有包袱——一个又一个的新闻文章都用他的照片作为人类新挑战的视觉符号。至少那些没有用OpenAI的视觉AI产品Dall-E生成的惊人图像为头条的文章是这样。他是这一刻的先知,人们首先想咨询的人物,关于AI如何可能引领一个黄金时代,或者使人类变得无关紧要,或者更糟。 那个阳光明媚的五月天,Altman的车把他带到了四个地方。第一个是秘密的,与Round Table的一个不公开的会议,这是一个由政府、学术界和行业人士组成的团体。这个会议是在最后一刻组织的,它在一个名为Somers Town Coffee House的酒吧的二楼。在酿酒师Charles Wells (1842-1914)的严厉肖像下,Altman回答了几乎每个听众都问的相同的问题。AI会杀了我们吗?它可以被监管吗?中国怎么样?他详细地回答了每一个问题,同时不时地看一眼他的手机。之后,他在Oxford Guild的600名成员面前,在豪华的Londoner Hotel进行了一场篝火聊天。从那里,他来到一个地下会议室,回答了大约100名企业家和工程师的更多技术问题。现在他几乎要迟到一个在伦敦大学学院的午后舞台上的讲座。他和他的团队停在一个装卸区,被引领穿过一系列蜿蜒的走廊,就像Goodfellas中的Steadicam镜头。当我们走路时,主持人匆忙地告诉Altman他会问什么。当Altman走上舞台时,观众席上充满了学者、极客和记者——爆发出欢声。 Altman并不是一个天生的公众人物。我曾经在《纽约客》发表了一篇关于他的长篇特写后与他交谈过。“关于我太多了,”他说。但在大学学院,正式程序结束后,他走进了涌向舞台脚的人群中。他的助手们试图在Altman和人群之间进行操作,但他摆脱了他们。他一个接一个地回答问题,每次都紧盯着提问者的脸,好像他是第一次听到这个问题。每个人都想自拍。20分钟后,他终于允许他的团队把他拉出来。然后他去见英国首相Rishi Sunak。 也许有一天,当机器人为我们写历史时,它们会把Altman的世界巡回演出列为一个里程碑,那一年,每个人都开始对奇点做出自己的个人评价。或者说,也许谁写这一刻的历史,会看到它是一个时候,一个安静的引人注目的CEO,带着一个打破范式的技术,试图将一个非常特殊的世界观注入全球的思维流中——从旧金山使命区的一个没有标记的四层总部到整个世界。 这篇文章发表在2023年10月的刊物上。订阅WIRED。 这篇文章发表在2023年10月的刊物上。订阅WIRED。照片:JESSICA CHOU 对于Altman和他的公司来说,ChatGPT和GPT-4只是通往实现一个简单而震撼的使命的踏脚石,这些技术人员可能已经在他们的肉体上刻上了这个使命。那就是建立一种人工通用智能——一个迄今为止更多地植根于科幻小说而不是科学的概念——并使其对人类安全。在OpenAI工作的人们对这个目标充满了狂热。(不过,正如办公室咖啡馆里的任何一次谈话都会证实,对于研究人员来说,“建立AGI”部分似乎比“使其安全”部分更加令人兴奋。)这些人不会回避轻松地使用“超级智能”这个术语。他们假设AI的发展轨迹将超越生物学能够达到的任何峰值。公司的财务文件甚至规定了一种退出方案,以备AI消除我们的整个经济体系。 称OpenAI为邪教是不公平的,但当我问公司的几位高管,如果有人不相信AGI真的即将到来——并且它的到来将标志着人类历史上的最伟大时刻——那么这个人能否在这里舒适地工作,大多数高管都不这么认为。为什么一个不信仰者会想在这里工作呢?他们不解地问。大家都认为,员工队伍——现在大约有500人,尽管自从你开始读这一段以来,它可能已经增长了——已经自我选择,只包括信仰者。至少,正如Altman所说,一旦你被雇佣,你似乎注定会被吸引进去。 与此同时,OpenAI不再是它曾经的公司。它是作为一个纯粹的非营利性研究机构成立的,但今天大多数员工实际上都为一个据报道估值近300亿美元的盈利实体工作。Altman和他的团队现在面临的压力是,每一个产品周期都要带来一次革命,以满足投资者的商业需求,并在一个竞争激烈的环境中保持领先。所有这一切都要遵循一个准使命,即提高人类而不是消灭人类。 这种压力——更不用说整个世界无情的关注——可能是一个令人衰弱的力量。披头士乐队引发了巨大的文化变革浪潮,但他们的革命只持续了那么久:在弹奏那首令人难忘的和弦六年后,他们甚至不再是一个乐队了。OpenAI释放的旋涡几乎肯定会更大。但OpenAI的领导们发誓他们会坚持下去。他们说,他们想做的,只是建造足够智能、足够安全的计算机,以结束历史,将人类推入一个难以想象的丰盛时代。
在80年代末和90年代初长大,Sam Altman是一个狂热于科幻和星球大战的书呆子。早期的科幻作家所创造的世界通常有人类与超智能AI系统共存或竞争。计算机达到或超越人类能力的想法让Altman兴奋不已,他的手指几乎无法覆盖键盘时就开始编码了。当他8岁时,他的父母给他买了一台Macintosh LC II。有一天晚上,他玩得很晚,突然有个想法闪过他的脑海:“有一天这台计算机会学会思考。”2003年,当他作为本科生进入斯坦福大学时,他希望能够实现这一点,并选修了AI课程。但他后来说:“它根本不起作用。”这个领域仍然陷入了一个被称为AI寒冬的创新低谷。Altman放弃学业进入初创企业世界;他的公司Loopt是Y Combinator中的第一批组织,这将成为世界上最著名的孵化器。 2014年2月,YC的创始导师Paul Graham选择了当时28岁的Altman接替他。Graham在公告中写道:“Sam是我认识的最聪明的人之一,他比我认识的任何人,包括我自己,都更了解初创企业。”但Altman认为YC不仅仅是公司的跳板。“我们并不只关心初创企业,”他在接任后不久告诉我。“我们关心的是创新,因为我们相信这是为每个人创造伟大未来的方式。”在Altman看来,赚取所有那些独角兽的关键不是为合作伙伴充实钱包,而是为物种级的变革筹集资金。他开始了一个研究部门,希望资助雄心勃勃的项目来解决世界上最大的问题。但在他看来,AI是唯一的创新领域:一个可以比人类更好地解决人类问题的超级智能。 幸运的是,正当Altman开始他的新工作时,AI寒冬正在变成一个充足的春天。计算机现在可以通过深度学习和神经网络执行惊人的壮举,例如标记照片、翻译文本和优化复杂的广告网络。这些进步使他确信,AGI实际上是触手可及的。但将其交给大公司,他却很担心。他觉得这些公司会过于专注于他们的产品,以至于无法尽快开发AGI。而且,如果他们确实创造了AGI,他们可能会在没有必要的预防措施的情况下鲁莽地将其释放到世界上。
当时,Altman一直在考虑竞选加利福尼亚州州长。但他意识到他完全有能力做些更大的事情——领导一个能够改变人类的公司。“AGI只会被构建一次,”他在2021年告诉我。“并且没有多少人能够很好地管理OpenAI。我很幸运,我一生中有一系列的经验使我为此做好了积极准备。” Altman开始与可能帮助他启动一个新型AI公司的人交谈,这是一个非营利性公司,它会指导这个领域走向负责任的AGI。一位志同道合的人是特斯拉和SpaceX的首席执行官Elon Musk。正如Musk后来告诉CNBC的,他在与Google联合创始人Larry Page进行了一些马拉松式的讨论后开始关心AI的影响。Musk说他为Page对安全几乎没有关心,而且似乎认为机器人的权利与人类相等而感到震惊。当Musk分享他的担忧时,Page指责他是一个“种族主义者”。Musk还明白,当时Google雇佣了世界上大部分的AI人才。他愿意为一个更倾向于人类团队的努力花点钱。 几个月内,Altman从Musk(承诺捐款1亿美元,还有他的时间)和Reid Hoffman(捐款1000万美元)那里筹集到了资金。其他资助者包括Peter Thiel、Jessica Livingston、亚马逊网络服务和YC研究。Altman开始秘密地招募团队。他将搜索限制在相信AGI的人中,这一限制缩小了他的选择,但他认为这是至关重要的。“回到2015年,当我们在招聘时,对于一个AI研究员来说,认真对待AGI几乎被认为是事业的终结,”他说。“但我想要那些认真对待它的人。” Greg Brockman,现为OpenAI的总裁。摄影:JESSICA CHOU
Stripe的首席技术官Greg Brockman是这样的一个人,他同意成为OpenAI的CTO。另一位关键的联合创始人是Andrej Karpathy,他曾在Google Brain工作,这是搜索巨头的前沿AI研究机构。但也许Altman最追求的目标是一位名叫Ilya Sutskever的俄罗斯工程师。 Sutskever的背景毋庸置疑。他的家人从俄罗斯移民到以色列,然后到加拿大。在多伦多大学,他是Geoffrey Hinton的杰出学生,Hinton因其在深度学习和神经网络方面的工作而被誉为现代AI的教父。Hinton仍与Sutskever保持亲近关系,对其门徒的魔法手段感到惊叹。在Sutskever进入实验室初期,Hinton给了他一个复杂的项目。Sutskever厌倦了编写代码来做必要的计算,他告诉Hinton,如果他为这项任务编写一个自定义的编程语言,会更容易。Hinton有点恼火,并试图警告他的学生远离他认为会是一个月长的分心。然后Sutskever坦白说:“我今天早上做的。” Sutskever成为了AI超级巨星,他共同撰写了一篇开创性的论文,该论文展示了AI如何仅通过接触大量的数据就学会识别图像。他最终很高兴地成为了Google Brain团队的关键科学家。 2015年中期,Altman给Sutskever发送了冷邮件,邀请他与Musk、Brockman和其他人在Palo Alto的Sand Hill Road的豪华Rosewood Hotel共进晚餐。只有后来Sutskever才弄清楚他是荣誉嘉宾。“这是关于AI和未来的AGI的一般对话,”他说。更具体地说,他们讨论了“Google和DeepMind是否遥遥领先,以至于不可能赶上他们,还是仍然有可能,正如Elon所说,创建一个实验室作为一个平衡”。尽管晚餐上没有人明确试图招募Sutskever,但这次谈话吸引了他。
在那之后不久,Sutskever给Altman写了一封电子邮件,说他愿意领导这个项目,但这封邮件却卡在了他的草稿文件夹里。Altman重新联系,经过数月抵御Google的反击,Sutskever最终签约。很快,他成为了公司的灵魂和研究的驱动力。 Sutskever加入Altman和Musk的团队,招募人员参与项目,最终在纳帕谷举行了一次休闲会议,其中几位潜在的OpenAI研究人员互相激发了彼此的兴趣。当然,有些目标会抵制这种诱惑。John Carmack,背后是Doom、Quake和无数其他标题的传奇游戏编码员,拒绝了Altman的提议。
OpenAI于2015年12月正式推出。当时,当我采访Musk和Altman时,他们向我展示了该项目,作为一个努力通过与世界分享来使AI变得安全和可访问的努力。换句话说,开源。他们告诉我,OpenAI不会申请专利。每个人都可以利用他们的突破性成果。这不会赋予权力给某个未来的邪恶博士吗?我想知道。Musk说这是一个好问题。但Altman有一个答案:人类通常是善良的,因为OpenAI将为绝大多数人提供强大的工具,所以坏人会被压倒。他承认,如果邪恶博士使用这些工具建造一些无法被对抗的东西,“那我们真的处于一个非常糟糕的地方。”但Musk和Altman都相信,AI的更安全之路将掌握在一个研究机构的手中,这个机构不受盈利动机的污染,这是一个持续的诱惑,以忽视人类的需求,寻找每季度的绝佳结果。 Altman提醒我不要期待很快看到结果。“这在很长一段时间里都会像一个研究实验室。”他说。 另一个压低期望的原因是,Google和其他公司已经开发并应用AI多年。虽然OpenAI已经获得了10亿美元的承诺(主要来自Musk)、一流的研究和工程师团队以及崇高的使命,但它对如何追求目标毫无头绪。
Altman回忆起一个时刻,小团队聚集在Brockman的公寓——他们还没有办公室。“我在想,我们应该做什么?” 我和Brockman在旧金山吃早餐,那是在OpenAI成立一年多之后。对于一个公司的首席技术官,他的名字中带有open这个词,他对细节很吝啬。他确实证实,这家非营利机构可以在一段时间内利用其初始的10亿美元捐款。25名员工的工资——他们的工资远低于市场价值——占据了OpenAI开支的大部分。“我们的目标是,我们真正推动的事情,”他说,“是拥有可以做人类以前不可能做的事情的系统。”但目前,这看起来就像一群研究人员发布论文。采访结束后,我陪他走到公司在Mission District的新办公室,但他只允许我走到前厅。他确实躲进一个壁橱给我一件T恤。 如果我进去问问,我可能会了解到OpenAI是如何困境的。Brockman现在承认“什么都没有起作用。”他们的研究人员在天花板上扔算法意大利面,看看哪些粘住了。他们深入研究了解决视频游戏的系统,并在机器人技术上花了很多心思。“我们知道我们想做什么,”Altman说。“我们知道为什么想这么做。但我们不知道怎么做。” 但他们相信。支持他们的乐观主义是使用深度学习技术的人工神经网络的稳步改进。“总体思路是,不要对深度学习下赌注,”Sutskever说。他说,追求AGI“不是完全疯狂,只是适度的疯狂。”
OpenAI的关键转折开始于他们聘请了一个尚未广为人知的研究员Alec Radford,他在2016年加入,离开了他在宿舍里与人合创的小型波士顿AI公司。在接受OpenAI的邀请后,他告诉他的高中校友杂志,接受这个新角色“有点像加入研究生课程”——一个开放的、压力较小的研究AI的位置。 他实际上扮演的角色更像Larry Page发明PageRank。 虽然Radford不善于与媒体交往,也没有接受过关于他工作的采访,但他通过一长串的电子邮件交流回应了我关于他在OpenAI初期的问题。他最大的兴趣是让神经网络与人类进行清晰的对话。这与制作聊天机器人的传统脚本模型有所不同,这种方法被用于从原始的ELIZA到流行的助手Siri和Alexa——所有这些都很不给力。他写道:“目标是看看语言模型是否对任何任务、任何设置、任何领域、任何事情都有用。”当时,他解释说,“语言模型被视为玩具,只能偶尔生成有意义的句子,只有当你真的眯起眼睛看时。”他的第一个实验涉及扫描20亿Reddit评论来训练语言模型。像OpenAI早期的许多实验一样,它失败了。但没关系。这位23岁的年轻人得到了继续前进、再次失败的许可。Brockman说:“我们只是像,Alec很棒,让他做自己的事情。”
他的下一个主要实验是受到OpenAI计算能力的限制而形成的,这种限制使他在一个专注于单一领域的较小数据集上进行实验——Amazon的产品评论。一个研究员收集了大约1亿条这样的评论。Radford训练了一个语言模型,简单地预测生成用户评论的下一个字符。 Radford开始尝试transformer架构。“我在两周内取得的进展比过去两年还要多,”他说。 但后来,该模型自己判断出评论是积极的还是消极的——当你编程让模型创建积极或消极的内容时,它会根据要求提供褒贬之词。(诚然,措辞有些笨拙:“我喜欢这种武器的外观……任何喜欢国际象棋的人都必须看!”)“这完全出乎我的意料,”Radford说。评论的情感——其有利或不利的要点——是语义的复杂功能,但不知怎么的,Radford的系统的某一部分已经对此有了感觉。在OpenAI内部,这部分神经网络被称为“无监督情感神经元”。 Sutskever和其他人鼓励Radford将他的实验扩展到Amazon评论之外,利用他的见解来训练神经网络进行广泛主题的对话或回答问题。 然后,好运降临了OpenAI。2017年初,由八名Google研究员共同撰写的一篇不起眼的预印版研究论文出现了。它的正式标题是“Attention Is All You Need”,但它被称为“transformer paper”,这既反映了这个想法的颠覆性质,也是为了纪念那些从卡车变形为巨大机器人的玩具。Transformers使得神经网络能够更高效地理解和生成语言。他们通过并行分析散文块,并弄清楚哪些元素值得“关注”来实现这一点。这大大优化了生成连贯文本以响应提示的过程。最终,人们意识到,同样的技术也可以生成图像甚至视频。尽管transformer paper会被认为是当前AI狂热的催化剂——可以想象它就像使Beatles成为可能的Elvis——但当时Ilya Sutskever只是少数几个了解这次突破有多强大的人之一。“当Ilya看到transformer出来时,真正的顿悟时刻到来了,”Brockman说。“他就像,‘这就是我们一直在等的。’这一直是我们的策略——在问题上努力推进,然后相信我们或者该领域的某个人会设法找出缺失的成分。” Radford开始尝试transformer架构。“我在两周内取得的进展比过去两年还要多,”他说。他开始明白,要充分发挥新模型的作用,关键是增加规模——在巨大的数据集上训练它。这个想法被Radford的合作者Rewon Child称为“Big Transformer”。 这种方法需要OpenAI进行文化上的改变,集中它之前所缺乏的注意力。“为了利用transformer,你需要放大它,”Quora的首席执行官Adam D’Angelo说,他是OpenAI董事会的成员。“你需要更像一个工程组织来运行它。你不能让每个研究员都尝试做自己的事情、训练自己的模型,并制作你可以发表论文的精美东西。你必须做这些更乏味、不那么优雅的工作。”他补充说,这是OpenAI能够做到的,也是其他任何人都没有做到的事情。 Mira Murati,OpenAI的首席技术官。摄影:JESSICA CHOU Radford和他的合作者为他们创建的模型起的名字是“generatively pretrained transformer(生成预训练变换器)”的首字母缩写——GPT-1。最终,这个模型被通称为“generative AI(生成式AI)”。为了构建它,他们使用了一套包含7,000本未出版书籍的集合,其中很多是浪漫、奇幻和冒险的体裁,然后在Quora的问题和答案上进行了完善,还有数千段取自中学和高中考试的段落。总的来说,该模型包含了1.17亿个参数或变量。它在理解语言和生成答案方面超越了之前的所有模型。但最显著的结果是,处理如此大量的数据使得模型能够提供超出其训练范围的结果,在全新的领域提供专家知识。这些未经计划的机器人能力被称为零射击。它们仍然使研究人员感到困惑,并解释了该领域的许多人对所谓的大型语言模型感到不安的原因。 Radford回忆起在OpenAI办公室的一个深夜。“我一遍又一遍地说,‘哇,那很酷,但我很确定它不可能做到x。’然后我会迅速编写一个评估,果然,它能够做到x。” 每一个GPT版本都会做得更好,部分原因是因为每一个版本都比前一个模型消耗了更多的数据。在创建第一个版本仅一年之后,OpenAI使用了惊人的15亿参数在开放互联网上训练了GPT-2。就像一个小孩掌握说话,它的回应变得更好、更连贯。因此,OpenAI犹豫是否将程序释放到外部世界。Radford担心它可能被用来生成垃圾邮件。“我记得在2008年读Neal Stephenson的《Anathem》,在那本书中,互联网被垃圾邮件生成器淹没,”他说。“我曾认为那是很不可能的,但当我多年来一直在研究语言模型,并且它们变得更好时,我不舒服地意识到这是一个真正的可能性。”
事实上,OpenAI的团队开始认为,把他们的工作放在Dr. Evil容易访问的地方可能并不是一个好主意。“我们认为开源GPT-2可能真的很危险,”首席技术官Mira Murati说,她于2018年加入该公司。“我们与错误信息专家进行了大量的工作,进行了一些红队测试。我们内部进行了很多关于发布多少内容的讨论。”最终,OpenAI暂时没有发布完整版本,而是为公众提供了一个不太强大的版本。当公司最终分享完整版时,世界管理得很好,但不能保证更强大的模型会避免灾难。 OpenAI正在制造足够聪明被认为是危险的产品,并且正在努力使它们安全,这证明了该公司已经找到了其魔力。Sutskever说:“我们已经找到了进步的公式,现在每个人都认为这是深度学习的氧气和氢——大型神经网络和数据的计算。” 对于Altman来说,这是一次令人难以置信的经历。“如果你问10岁的我,我过去经常幻想关于AI的事情,会发生什么,我相当有信心地预测,首先我们会有机器人,它们会执行所有的体力劳动。然后我们会有系统可以做基本的认知劳动。在很长的时间之后,也许我们会有系统可以做复杂的事情,比如证明数学定理。最后,我们将拥有可以创造新事物、制作艺术品、写作和做这些深入人类的事情的AI。这是一个糟糕的预测,它正好相反。” 世界还不知道,但Altman和Musk的研究实验室已经开始攀爬,很可能朝着AGI的顶峰前进。OpenAI背后的疯狂想法突然变得并不那么疯狂了。 到2018年初,OpenAI开始集中精力研究大型语言模型,或LLMs。但是Elon Musk并不满意。他觉得进展不够,或者也许他觉得现在OpenAI已经找到了一些东西,它需要领导力来抓住它的优势。或者,正如他后来解释的,他觉得安全应该更加优先。不管他的问题是什么,他都有一个解决方案:把一切交给他。他提议在公司中占有多数股权,将其加入他的多个全职工作(Tesla, SpaceX)和监督职责(Neuralink和Boring Company)的组合中。 Musk相信他有权拥有OpenAI。“没有我,它不会存在,”他后来告诉CNBC。“是我想出了这个名字!”(事实如此。)但Altman和OpenAI的其他核心团队并不想成为Muskiverse的一部分。当他们明确表示这一点时,Musk切断了与他们的联系,并向公众提供了一个不完整的解释,说他离开董事会是为了避免与特斯拉的AI努力发生冲突。他在那年初的一个全体员工会议上告别,预测OpenAI会失败。他还至少称其中一位研究员为“愚蠢的人”。 他也带走了他的钱。由于公司没有收入,这是一个生存危机。“Elon正在切断他的支持,”Altman在一个慌张的电话中对Reid Hoffman说。“我们该怎么办?”Hoffman自愿支持公司,支付日常开销和工资。 但这只是一个临时的解决方案;OpenAI必须在其他地方找到大笔资金。硅谷喜欢为从事时尚技术的有才华的人投钱。但如果他们在一个非营利组织工作,情况就不太一样了。对OpenAI来说,获得第一个十亿是一个巨大的挑战。为了训练和测试GPT的新一代——然后获得部署它们所需的计算——公司需要另外十亿,而且要尽快。而这只是一个开始。 在重组文件中的某个地方,有一条条款规定,如果公司确实成功创建了AGI,所有的财务安排都将被重新考虑。毕竟,从那时起,这将是一个全新的世界。 于是在2019年3月,OpenAI提出了一个奇特的解决方案。它仍然是一个非营利组织,完全致力于其使命。但它也将创建一个营利实体。这种安排的实际结构非常复杂,但基本上整个公司现在都在从事一个“有上限”的盈利业务。如果达到了这个上限——这个数字并不为公众所知,但如果你从其章程中读出来的信息来看,它可能是数万亿——那么超出的部分就会回到非营利研究实验室。这种新颖的方案几乎是一个量子方法的公司:这取决于你的时间-空间观点,它是营利和非营利的。这些细节被体现在充满盒子和箭头的图表中,就像科学论文中间的那些图表,只有博士或退学的天才才敢于探讨。当我向Sutskever建议它看起来像是某种未来的GPT-6可能会提出的避税方法时,他并不喜欢我的比喻。他说:“这不是关于会计的。” 但会计是至关重要的。一个为盈利的公司为了利润而优化。当公司像Meta这样的公司在研发上投入数十亿美元时,它们会受到股东的压力,这是有原因的。这怎么可能不影响公司的运营方式呢?而且,避免商业化不就是Altman最初创建OpenAI为非营利组织的原因吗?根据首席运营官Brad Lightcap的说法,公司领导的观点是,仍然是非营利控制实体的董事会将确保为了收入和利润的驱动不会压倒原始的想法。他说:“我们需要维持使命作为我们存在的原因,这不仅仅是精神上的,而且还应该在公司的结构中编码。”董事会成员Adam D’Angelo表示,他非常重视这一责任:“我的职责,以及董事会其他成员的职责,是确保OpenAI忠实于其使命。” Lightcap解释说,潜在的投资者被警告了这些边界。“我们有一个法律免责声明,它说作为投资者,你可能会失去所有的钱,”他说。“我们不是在这里为了你的回报。我们首先在这里为了实现一个技术使命。顺便说一句,我们真的不知道在后AGI世界中,钱会扮演什么角色。” 那最后一句话不是一个随意的笑话。OpenAI的计划确实包括在计算机达到最终前沿的情况下进行重置。在重组文件中的某个地方,有一条条款规定,如果公司确实成功创建了AGI,所有的财务安排都将被重新考虑。毕竟,从那时起,这将是一个全新的世界。从那时起,人类将有一个可以做我们做的大部分事情的外星合作伙伴,只不过做得更好。所以之前的安排可能实际上已经结束了。 但是,有一个问题:目前,OpenAI并不声称知道AGI究竟是什么。这个决定将由董事会做出,但目前尚不清楚董事会将如何定义它。当我询问董事会成员Altman要求明确时,他的回答并不完全公开。“这不仅仅是一个图灵测试,而是我们可能使用的许多事物,”他说。“我很愿意告诉你,但我喜欢保密交谈。我意识到这是模糊不清的。但我们不知道那时会是什么样子。” 尽管如此,包括“财务安排”条款并不仅仅是为了好玩:OpenAI的领导认为,如果公司成功到达其崇高的利润上限,其产品可能已经表现得足够好,达到AGI。不管那是什么。 Sutskever说:“我后悔的是,我们选择了加倍投入到AGI这个术语上。回过头来看,这是一个令人困惑的术语,因为它强调了一切之上的通用性。GPT-3是通用AI,但我们不真正愿意称其为AGI,因为我们想要的是人类水平的能力。但在开始时,OpenAI的想法是超级智能是可以实现的。这是终局,是AI领域的最终目标。” 这些保留意见并没有阻止一些最聪明的风险投资家在2019年的融资轮中向OpenAI投入资金。那时,第一个投资的风险投资公司是Khosla Ventures,它投入了5000万美元。据Vinod Khosla说,这是他最大的初始投资的两倍。“如果我们输了,我们就损失5000万美元,”他说。“如果我们赢了,我们就赢得50亿美元。”其他投资者据说包括顶级的风险投资公司Thrive Capital、Andreessen Horowitz、Founders Fund和Sequoia。 这种转变也使OpenAI的员工能够获得一些股权。但Altman没有。他说,原本他打算包括自己,但没有做到。然后他决定,他不需要自己创办并领导的300亿美元公司的任何部分。“有意义的工作对我更重要,”他说。“我不考虑这个。我真的不明白为什么人们如此在意。” 因为……你不在你共同创办的公司中持有股份是很奇怪的吗? “如果我还没有大量的钱,那会更奇怪,”他说。“似乎人们很难想象有足够的钱。但我觉得我有足够的。”(注意:对于硅谷来说,这是非常奇怪的。)Altman开玩笑说,他正在考虑取得一股股权,“这样我再也不用回答那个问题了。”
|