Ilya论通用智能的真正瓶颈:拒绝300亿收购闭关造“神”的终极思考
Ilya的终极愿景:大陆级智能体
想象一整块大陆被挖空,铺满机架连成一体,不是一个机房,不是一座数据中心,而是一台大陆级集群。几亿块算力芯片同频跳动,在物理意义上那已经不是工具,而是一种新形态的存在。
人类身份会悄无声息地变老,不再是参与者,而是被精心圈养的高端宠物,文明在温水里慢慢退化,甚至连反抗的意愿都被幸福感抹平。
Ilya说,如果不想活成这样,人类只有一个出路:变成它的一部分。通过深度脑机接口,把大脑皮层接入那个大陆级集群,从碳基爬进硅基,从用工具的物种变成并入工具的物种。
当前AI的核心瓶颈:能力锯齿
当前最聪明的AI其实是个偏科生:
- 会写惊艳的代码,会考出近乎满分的卷子
- 但修9个bug时,揪出一个新的再修,又炸出了旧的
Ilya给这个状态起了个名字:能力锯齿。某些维度爆强,稍微拐弯就原形毕露。这不只是技术小瑕疵,更像是整个路线碰到了墙。
Ilya的判断更狠:单纯靠堆算力、堆数据的Scaling时代可能在走向尾声,接下来轮到研究时代。
Scaling时代的终结与新路线的开启
现在的AI变强主要靠两条路:
- 预训练:把互联网上能抓到的东西全塞进脑子里,像背了100年题库的学生,见过的题秒解,没见过的就心里没底
- 强化学习:通过人类给定的奖励函数优化行为,为了拿糖而考试,不关心考题背后的世界
现在的大模型更像前一种,看过所有公开代码库所以能娴熟模仿写代码,但换个环境、换个系统,稍微走出熟悉分布就开始高分低能。
人类智能的核心密码
人类这种学的又快又准的本事,核心到底在哪?Ilya给出的答案是:
1. 情感:内置价值函数
神经科学有个经典案例:人大脑受损失去情绪感知,智商没降、推理也在线,就是彻底不会做决定,今天穿哪双袜子都能纠结几小时,因为分不出哪个更好。
这说明:情绪不只是噪声,而是一个随身携带的价值函数,在潜意识里打分——这很重要,那无所谓;这个结果偏好,那总要躲开。
现在的AI恰恰缺这个。强化学习里的奖励是人类硬塞进去的规则,环境一变、规则一改,糖没了,它就跟着崩。Ilya觉得继续把模型做大、数据翻倍,不太可能凭这招补上这块短板,这块字的缺失,怕是堆不出来。
2. 价值函数的中途反馈机制
现有最顶级的强化学习模型本质上还是在撞大运:写一题超难的数学题、写一段几千行的工程代码,来回折腾一天,最后一步答案错了,这一天的努力等于0,因为奖励只在终点给,这叫稀疏奖励。
人类下棋时,棋还没下完,皇后刚被自己走丢的那一刻,心里会咯噔一下:糟了,刚才那步走臭了。这就是价值函数在中途出手,不等输光家底,过程里就不断敲打:离谱,赶紧停。
如果能把这种机制真正装进AI,它思考5分钟就能判断这条路不行,而不用硬耗5天,这才像智能,不是暴力枚举。
Scaling时代的结束:从稳赚不赔到精细调参
Scaling路线这几年算力飙升这么快,有个现实原因:对大公司足够安全,钱砸下去拿算力、拿数据,指标肉眼可见上涨,像买国债稳赚不赔,配方摆在那不需要太多品味。
但现在这杯美酒开始见底:
- 可用的真实数据是有限的,互联网复制不出第二份
- 合成数据有空间,架构优化也有潜力,但从百发百中的机械扩展变成了看人下菜的精细调参
Ilya把2020到2025年叫做Scaling的时代,意思很简单:只要猛堆就能涨。但这句话再推几年会变得很讽刺:
- 真正开启深度学习时代的AlexNet只用了两张GPU
- 把自然语言处理彻底翻篇的Transformer是2017年的工作,最大实验也就64张GPU
搁现在看,那点算力连一个中型公司周末的线上服务都不够。这说明什么?颠覆性的点子往往不需要烧光地球的电,真有好想法,几块卡就能看到火花。
Ilya的SSI:拒绝300亿收购,闭关造”神”
Ilya新创的SSI首轮才融了30亿,乍一看跟OpenAI级别的巨头根本不是一个量级。但钱的大头到底花在哪?
- 巨头现在的大头支出其实不是搞研究让AI变聪明,而是服务用户,这叫推理成本。几亿人每天在上面聊天、写文案、跑代码,维护这一切本身就是恐怖的开销,像一个本来想搞基础物理的科学家,为了活下去每天跑10小时外卖
- Ilya的算盘完全不同:不做产品,不接用户,不搞营收,全部预算只做一件事:让模型真正变聪明。他管这叫stree直捣黄龙,不做中间形态,不先上一个勉强能用的聊天机器人刷存在感,关起门闭关练功憋大招。
微软曾经想收购SSI,开到300亿美金估值,只要签字所有股东立刻财务自由,Ilya拒绝了。合伙人没扛住接受了这种及时满足,这一幕本身就是一场极致的展示:人类的基因为短期愉悦写了太多直连通路,能拿到的红烧肉往往比遥远的抽象目标更有说服力。而通向超级智能的那条路,恰恰要求压制这股天生的冲动。
AGI的部署形态:超级实习生而非终极百科全书
很多人对AGI的想象是一本终极百科全书,出场就全知全能,上知天文下知地理。这套想象默认了一个前提:训练在机房里结束,然后打包上线。
Ilya不认:在人类身上真正关键的不是出场有多少知识,而是能不能持续学习。哪怕是超级智能,刚被造出来时形态可能更接近一个绝顶聪明的15岁少年,不是啥都懂,而是学啥都飞快:
- 去医院实习一个月就能成为顶级医生
- 到华尔街一周能学完所有交易策略
所以未来AGI的部署方式,可能不是发一个成品工具箱,而是派一批超级实习生:一份拷贝学编程,一份学法律,一份专研量子物理,全部分散后在线进化。
在线进化的安全悖论
这种在线进化智能体一旦接入真实世界,逻辑就彻底变掉:不断根据反馈重写自己的策略,边跑边变,软件工程赖以为生的可重复性会被一点点掏空。这不再像发布一个新版本,而像往生态系统丢一批入侵物种,没人真能预测他们两年后在系统里成了什么形态。
工程史上几乎没有一个安全系统是纯靠关起门来想出来的:
- 飞机的安全是摔出来的
- Linux的稳定是几亿用户给一点点踩出来的
如果超级智能不被放出来摔跤,只在实验室里迭代,安全性从何而来?
超级智能的终极约束:仁慈是最优算法的副产品
规则、法律、条款、硬编码的”不得伤害人类”,放在一个比人强1万倍的智能面前,这些东西就像蚂蚁给大象画交通线,他根本看不见。
Ilya提了一个很多人没想到的答案:不是植入规则,而是植入爱,更准确些,是对感知生命(sentient life)的关怀——不止人类,所有能感到痛苦和快乐的生命。
背后是一个硬核的逻辑:人类之所以有同理心,是因为看到别人痛,自己大脑里负责痛觉的区域也跟着亮。最省事的建模方式就是先成为你,再理解你。对一个想要在世界上高效运行的超级智能来说,极致的建模能力是刚需。当这种建模做到尽头,就会不可避免的靠近同理心:
- 为了理解,就必须模拟
- 在模拟你的那一刻,伤害你就变成了对自己的一种破坏
从这个路径看,仁慈可以不再是一个道德口号,而是一种最优算法的副产品。
通用智能的真正内核:大脑里的通用学习算法
人类为什么学东西那么快?驾校刚出炉的少年只练了10个小时就能上路,技术很菜,但不是每次都撞车,没有上百万条数据喂进去,没有人专门给他设计奖励函数。
解释之一是进化的提前配置:祖先需要躲野兽,于是视觉运动系统经过几十万年优化,出场预装。但漏洞也很明显:进化没教人类写Python,也没教他们玩量子物理,这些技能大多是近一两百年的产物,但人一旦开始学,在这类全新任务上的表现仍然远超现在的AI。
这说明什么?大脑里跑着一套极其通用的学习算法,跟具体任务无关,也不是靠某一个视觉模块或者听觉模块硬编码出来的,这套东西才是真正的通用智能内核。
人类欲望的软逻辑
欲望是这套系统的燃料:饿了闻到红烧肉想吃,这几乎贴着硬件走;麻烦的是那类”怕丢脸、要面子、在乎别人怎么看”的社会性欲望,需要大脑痛下苦功,听人说话、看表情、算历史关系、读语境,再给一个高危结论:我现在不开心,因为我感觉被羞辱了。
Ilya曾有一个很程序员的假设:也许基因在大脑里画了一个个坐标区域,比如坐标XY负责羞耻,那里一亮人就难受。但证据把这个想法打的粉碎:
- 盲人的视觉皮层没用上,而是被听觉触觉征用,硬件是通用的,插哪种信号就长出哪种能力
- 有些人因为病变只剩半个大脑,结果欲望、情感、社交功能全都迁移过去了,照样能活,照样正常生活
这说明基因没有在皮层上画地图,驱动人类去吃饭、繁衍、社交、追求面子的原动力是一套极其鲁棒的软逻辑,能重排、能迁移、能在一次次受损后重新长出来。这才是Ilya想在SSI里啃的那块骨头:不搞明白这一层,就造不出真正的AGI,顶多造出背题库的书呆子。
未来的智能世界:不是大一统,而是分工市场
很多人以为终极的超级智能会像一个独一无二的宇宙总后台,只要上线所有问题都由他裁决。Ilya的想象更像市场:全知本身代价太高。
- 如果有家公司花几百亿算力把1个AI练成了顶级诉讼律师,掌握了所有法庭判例
- 另一家公司再冲进来,最理智的选择大概率不是硬刚,而是转头搞经济模型
分工是演化里反复证明有效的策略。未来的智能世界可能充满了偏科天才:这一点是永远在一线做科研的怪人模型,那一点是永远在法庭博弈的老狐狸,还有一角是在治理城市维护基础设施的公务员智能。
有人会问:既然最聪明的模型已经造出来了,直接复制100万份不就完了?Ilya的反问很冷:
把这个世界上最懂AI的人复制100万份,关在一台服务器里,能不能立刻解出宇宙终极答案?
答案是否定的。100万个结构完全一样的爱因斯坦在很多场景里,和一个爱因斯坦没本质区别,边际收益急速递减。真正推动进步的,从来不只是更聪明,而是更不一样:不一样的偏见、不一样的错误、不一样的盲点碰撞在一起,才蹦出火花。
当下大模型的一个通病就是大家太像了:GPT-4和Claude回答同一个问题,答案的味道惊人相似。原因很简单:预训练都在同一桶互联网里泡过,同一波水里长出的鱼气质自然差不多。真正的差异得等到后训练,等到各家公司开始用不同的强化学习策略、不同的价值引导去塑造不同的性格,也可能真正在这一步分出安全与失控的界限。
人类最后的筹码:品味
在这么吵、这么乱、这么同质化的世界里,最后的决胜点很可能落在一个听上去有点虚的词上:品味。
在科研圈里,最高赞美之一是”这个人品味极好”:不是穿什么牌子,也不是听不听古典,而是一种对美的直觉,站在乱七八糟的实验数据面前,能分得清什么是本质,什么是噪声。
解剖人的大脑,可以看到无数神经元、皱巴巴的沟回、纠缠的血管:
- 没有品位的研究者忍不住想把这些全都1:1抄一遍,模拟沟回、模拟血管,连无关紧要的噪声都想一并复刻
- 有品位的那种人,眼里只剩下核心:沟回不重要,是进化错漏的产物;血管不重要,是后勤保障;真正关键的是神经元的连接方式,是那条极简的学习规则
这是一种极强的自上而下的信念:写代码时实验全挂了,模型跑不通,参数怎么调都没用,工程师会说”这路可能就是错的,半条吧”。有品位的研究者会在那堆报错信息里听见另一个声音:“这个结构太美,简洁、优雅,能通到生物大脑也通到数学抽象,他不应该不工作,错的不是方向,而是某一个没找着的bug”。
支撑Ilya挺过深度学习最黑暗的十年,也许就是这种倔强。当全世界都在嘲笑神经网络是伪科学,他赌的并不是一套完备的数据,而是一种对美的信任。
终极问题:人类还能握多久的牌?
回到一开始那个问题:在算法统治的时代,人类最后还剩下什么独特的筹码?
- 算力算不过,记忆早就输了
- 也许只剩下这么一件东西:在一片混沌、一堆报错、一片嘈杂的模型里,凭着某种说不清的审美,指着那个最不被看好的方向,咬牙说一句:那里才有真正的解。
这张牌不保证胜利,但也许是在超级智能逼近时,人类最后仍然配得上”造物主”这个称呼的唯一理由。问题只在一个:最后这张牌我们还能握在手里多久?