AI “奸商”的崛起_1

编译|核子可乐、Tina

OpenAI里有不少人,比我们想象中更希望实现通用人工智能(AGI)。

最近有个播客特别火,前OpenAI员工、哥伦比亚大学2021届毕业生LeopoldAschenbrenner花了4个小时谈论当前AI发展趋势:2027年实现AGI,2030年超级智能出现,现有对齐技术恐失效。

这次播客在Spotify、Twitter和Youtube都有传播,光Youtube上就有10万次观看。Aschenbrenner大肆宣扬了“2027年实现AGI”的看法:“到2027年,模型将能够完成人工智能研究人员/工程师的工作,这是非常有可能的。”

另外他还发表了一篇165页的名为《情境感知》的宣言,对AI发展的未来做出了一系列预测,并在开头写下了“致敬IlyaSutskever”。总结来说这份宣言除了3年实现AGI,还包含以下几个关键节点:2024年,训练计算正在快速崛起;效率计算将在8个月内实现倍增;通用人工智能会在本个十年之内到来。

Aschenbrenner认为,AI发展的速度可以通过OOM(数量级)来衡量。过去四年,AI从GPT-2发展到GPT-4,相当于从“学龄前儿童”进化为“聪明的高中生”。他预测,到2027年,AI将实现与GPT-2到GPT-4相似的跃迁。在达到AGI之后,AI可能会在不到一年的时间内从人类水平快速过渡到超人类水平。

AI的进展主要得益于算力、算法效率和通过微调解锁的潜力(如基于人类反馈的强化学习、思考链、工具和脚手架等)。Aschenbrenner预计,到2027年,算力和算法效率将分别增加2到3个OOM。

OpenAI出来的AGI鼓吹者

LeopoldAschenbrenner是哥伦比亚大学2021届毕业生,其毕业论文“AversiontoChangeandtheEndof(Exponential)Growth”获得了经济学最佳毕业论文Romine奖,之后便一直从事经济方向的研究,看起来并没有太多和技术直接相关的经历。

本科毕业后,他自称经历了一年的Gapyear,然后于2023年加入了OpenAI的“超级对齐”团队,具体工作不知。一年半后,他在接受采访时表示他因涉嫌泄露机密信息于今年4月被解雇。

在本期播客中,他透露了离开OpenAI后,成立了一家专注于AGI的投资公司。

大家好,我是LeopoldAschenbrenner。我最近成立了一家专注于AGI的投资公司,主要投资人包括PatrickCollison、JohnCollison、NatFriedman和DanielGross。在此之前,我曾在OpenAI的超级对齐(Superalignment)团队工作。再往前,我曾在牛津全球优先事项研究所长期从事经济增长研究。我来自德国,目前住在加利福尼亚州旧金山。

AI研究员、律师兼作家TobiasMarkJensen对这位只有25岁的AGI鼓吹者作出了以下评价:

你在二十出头的时候,在做些什么?我自己那时的生活很简单,平时上学听课,周末则把自己灌得酩酊大醉。

在同样的年纪,LeopoldAschenbrenner正在OpenAI的“超级对齐”团队与IlyaSutskever合作。在此之前,19岁的他以优异的成绩毕业于哥伦比亚大学,并在牛津大学从事经济增长研究。如今24岁的他正与其他硅谷人士一道,创立了一家专注于AGI方向的风险投资基金

Aschenbrenner对于AGI的期待可以理解,毕竟有望从中获利。但从种种迹象来看,他们似乎太过狂热,甚至堪称是年轻版的SamAltman。

情境感知或者说态势感知(SA)指的是对环境、个中元素及其如何随时间或其他因素而变化的理解能力。情境感知在诸多环境中都是有效决策的核心前提。而如果AGI或者说超级智能真的即将实现,那么当前的文明,甚至全人类似乎还没做好掌控这股力量的准备。

或者从认知角度出发,立足AGI如何影响全人类这个问题,我们到底该如何理解“情境感知”?来自德国、现居旧金山的年轻人Aschenbrenner在采访中倒是言之凿凿。

这份爆火的“胡言乱语”实际都讲了啥?

被OpenAI公司解雇的Aschenbernner不再受到OpenAI“不诋毁”协议的约束,于是他公开发表了一份名为《情境感知:未来的十年(SITUATIONALAWARENESS:TheDecadeAhead)》的宣言。

“情境感知”这词读着就透露一种诡异感。这证明了这些“精英”已经与普罗大众间产生了极度夸张的脱节。这份宣言的根基并不是事实、数据或者理性判断,而完全源自主观推断、狂妄自大以及对技术那宗教式的崇拜。

让我们来看看Aschenbrenner最核心也最奇怪的主张,可怕的是这些主张很可能得到了OpenAI员工乃至硅谷不少技术投资者的支持。

AI将继续呈指数级增长

“我提出以下主张:到2027年,模型将能够接替AI研究员/工程师的工作,而且可能性极高。这不是科幻小说中的畅想,而是图表数据支持的结论。”

之后Aschenbrenner亮出了以下图表:

那我们就需要回答几个问题了:

算力的增长是否一定等价于更强的AI智能?

AI是否具备盈利空间?

我们真能认同GPT-4智力水平与“聪明的高中生”相当的说法吗?

一项研究表明,扩展定律(ScalingLaw)已经达到极限,即投入更多数据和更多算力来训练AI,也无法继续显著增强AI智能。AI初创企业所能吸引到的种子资金在最近一个季度急剧缩水,全世界在AI领域砸下巨额金钱,但截至目前获得的回报却基本可以忽略不计。

至于GPT-4的智力水平与聪明的高中生相当,完全是个不负责任的说法。只有立足狭义的基准测试,这种判断才算正确,但这些测试并不能准确衡量智力水平。正如MelanieMitchell所言,“AI在基准测试中的表现,并不一定能体现AI在现实世界中的真实能力。”

还有一点,基准测试中的问题和答案很可能遭到了“污染”,也就是说其已经被纳入了AI训练数据当中。由于OpenAI拒绝分享其模型训练数据来源,所以这个问题既无法证实、也无法证伪。

AI将取代人类劳动

“最终,我希望我们能迎来一种类似于远程办公临时工的方案。AI智能体将加入业务流程,像新员工一样入职,并在Slack上向同事发送消息、使用业务软件、提交pullrequest,甚至能在处理大规模项目时提供个人独立工作数周所交付的成果。当然,实现这一切需要比GPT-4更好的基础模型,但可能也不用好太多——多数资源都将集中在解决限制模型实际应用的基础障碍方面。

考虑到最近的发展速度,在未来一、两年内出现Aschenbrenner构想中那种自主AI,似乎也并不算在痴人说梦。

但这一切,是否值得?

Aschenbrenner这一生中可能从未接触过平凡的岗位。他做出的声明应该没有特别的恶意,但却再次凸显出人工智能上层阶级对普通人赖以生存的平凡岗位的真实评价:鄙夷。

但目前还没有任何迹象表明,AI智能体会在未来一到两年内取代普通办公室白领。任何用过GPT-4或者谷歌Gemini的普通人都知道,这些模型还远不够直观或者说易于理解。老实讲,AI工具对于很多任务根本帮不上什么忙,各个国家乃至大洲中需要频繁使用ChatGPT、谷歌Gemini乃至微软Copilot的用户只占全部工作岗位中的极少数(数据来自路透社新闻研究所和牛津大学2024年5月的报告)。

OpenAI赚钱吗?

“报告显示,OpenAI公司在2023年8月的收入为10亿美元,到2024年2月的收入则为20亿美元,相当于每6个月翻一番。如果这一趋势持续下去,那么到2024年底/2025年初,其年收入应该会增长至约100亿美元。”

这是心智正常的成年人能说出来的话吗?种种预测简直就是胡言乱语。其中的逻辑水平类似于:“我今年能跳1米,而在训练6个月后能跳1.5米。只要这个进度保持不变,那么训练10年后我就能跳10米。”

AGI是一种极为隐秘的强大武器

“我们正在开发人类有史以来最强大的武器。我们目前开发的算法机密,实际上也是对国家最重要的国防秘密——这些秘密将成为美国及其盟友在未来十年内保持经济与军事优势的基础,并决定我们是否具备必要的领先优势以保障AI安全。这些秘密将决定第三次世界大战的结果,也将决定整个自由世界的未来。”

他明白自己在说什么吗?!Aschenbrenner深切关注中国抢在美国之前开发出AGI的可能性。对他来说,至少在国家安全层面,OpenAI目前开发的聊天机器人比核武器还要重要。而且面对好奇心爆炸的读者,他压根没有解释AGI到底要如何成为“人类有史以来最强大的武器”。

通过他这份《情境感知》宣言,让人意识到下一代手握特权但却盲目鲁莽的投资者们要比人们想象中更离谱。这真的很可悲,世界上最富裕的阶层掌握着真正能让世界变好的资源,但他们的生活和思维方式却彻底偏离了现实。

AGI仍面临一系列现实障碍

我们都知道训练数据即将耗尽,那为什么所有风险投资方仍在疯狂炒作AGI,而且不强调其感知与通用学习方面的特征、反而总想把它描述成一种商业工具?人有记忆的,OpenAI、机器学习研究员和科学家们在几年之前提出的AGI概念我们可还记得呢。

最近《时代》杂志报道了EpochAI,这是一家关注AI发展轨迹、旨在造福社会的研究机构。他们最近发表的论文相当有趣。

2024年6月4日发表的这篇《数据会被耗尽吗?人类生成数据正在束缚大模型持续扩展(Willwerunoutofdata?LimitsofLLMscalingbasedonhuman-generateddata)》的文章提出,如果我们在2026年之前就用尽了高质量训练数据,或者说在2028年之前达到现有训练方法的极限,那在2027年实现AGI是否将是天方夜谭?

目前还无法断言大语言模型到底是不是实现通用学习AGI的正确架构,但各位技术乐观主义者显然希望得到肯定的答案,并热切期待能够从中获利。不少风险投资资金和Copilot时代的炒作也都扎根于此。

LeopoldAschenbrenner的宣言和主张肯定存在很大问题,但倒也可以理解,毕竟他最近正忙着为刚成立的AGI投资公司做营销。但他并未透露这家AGI投资公司具体叫什么名字。

但从行动上看,既然AGI投资公司的架子都搭起来了,他的决心自然也不比那帮技术乐观主义者差多少。至于这究竟是不是个好的投资决策,只能说目前AGI的概念在旧金山还算有市场,而最终能证明一切的只有时间。

他们并不真正关心AGI对于现实社会的潜在影响,其核心目的永远是直接从中获利。哪怕是那些离开了OpenAI的前“超级对齐”团队成员,其中也有不少在大肆宣传AGI以及衍生自2022年ChatGPT的其他技术分支。这些方案更多强调如何取代中等技术工人,而非创造任何具有决策能力和自我意识的通用学习成果。

换言之,AGI一直是OpenAI最核心的支柱性营销概念。

写在最后

大家如何看待Aschenbrenner的观点?现在真是建立AI投资基金的好时机吗?无论答案如何,现实中确实有越来越多的初创公司选择将“AGI幻想”纳入其营销叙事当中。

市场上不少资金充足的AI研究及生成式AI初创公司其实很难创造收入,他们的多数产品根本没有市场需求。除了OpenAI这位绝对的时代宠儿和明星之外,大多数企业都面临着残酷的市场激烈,而且根本不敢指望能获得理想的投资回报率。

在ChatGPT发布整整18个月之后,我们并没有看到AI在造福人类方面取得实质性进展。技术乐观主义者总想让大家相信,奸商的崛起生成式AI是一项与互联网本身一样伟大的发明。但,真是这样吗……

特斯拉、亚马逊、谷歌、TikTok、Snap以及微软等公司在2024年的前几个月都经历了大规模裁员。Zoom希望为员工打造数字孪生,让这些数字副本参加会议;包括Figma在内的不少企业则尝试用AI改善成本管理,借此减少必要的员工数量。

同时,软件和云计算厂商,正在被生成式AI需求“抽干活力”。有证据表明软件和云计算厂商也将直接暴露在生成式AI公司的火力覆盖范围内。AI可能会继续侵蚀资本主义和股票市场上的企业数量,并导致一众软件和云计算厂商的生存空间不断被压缩。

Veeva公司CEOPeterGassner最近表示,AI已经成为“决定竞争地位的优先因素”。

由于收入令人失望、预期疲态尽显,Salesforce的股价遭遇2024年以来的最大跌幅。

一众软件和云计算厂商今年第一季度的收益预测都不及预期,产品面临的竞争环境也趋于白热化。

客户这边越来越不愿意在软件、CRM、云计算乃至RPA方面签订多年长期合同。而在另一方面,生成式AI领域的投资回报率仍存在严重的投机属性,其成本甚至经常高于预期生产力或者理论上能够节约的劳动时间。

面对如此严重的AI泡沫,任何头脑清醒的人都能基于数据轻易驳倒所谓AGI将在短期内实现的论点。

也许LeopoldAschenbrenner有一天会成为新的技术巨星,又或者沦为为AGI飘渺神话造势的又一颗棋子。但无论如何,这股炒作趋势已然形成,虚幻且危险。

参考链接:

https://situational-awareness.ai/from-gpt-4-to-agi/

https://www.youtube.com/watch?v=zdbVtZIn9IM

https://www.ai-supremacy.com/p/the-rise-of-the-agi-profiteers

德国再次拥抱Linux:数万系统从windows迁出,能否避开二十年前的“坑”?

调度GPU算力,除了K8s我们别无选择|Kubernetes十年

深度探索大模型时代的软件架构最佳范式,攻略就绪、就等你来|ArchSummit

“都是调用的GPT?”ChatGPT、Claude、Perplexity、Gemini同时都宕机了

活动推荐

AI大模型技术在短时间内迅速革新,前不久GPT-4o的推出再次引发行业的关注。6月21日13:00-18:00,在AzureOpenAIDay活动中将现场演示这一最新模型,带你直观地感受其在语音、文本及视觉处理上的进步。欢迎扫码报名👇🏻

免责声明:本网站部分内容由用户自行上传,若侵犯了您的权益,请联系我们处理,谢谢!联系QQ:2760375052

分享:

扫一扫在手机阅读、分享本文

厚濡

这家伙太懒。。。

  • 暂无未发布任何投稿。

最近发表