Nature重磅:图灵测试已死,AI已具备人类水平智能,这一天终于来了
别再争论AI什么时候能赶上人类了。顶刊《Nature》刚刚发文宣布:不用等了,就是现在。
如果说1950年阿兰·图灵(Alan Turing)提出的“模仿游戏”只是一个天才的脑洞,那么75年后的今天,这个脑洞已经被硅基生物彻底填平。
今天,一篇发表在《Nature》上的重磅文章引爆了科技圈。这就好比《皇帝的新衣》里那个诚实的小孩,来自加州大学圣地亚哥分校等机构的顶级哲学家、认知科学家和计算机专家们联名站出来,指着那个名为“通用人工智能(AGI)”的房间大声宣布:
“别找了,AGI就在这儿。它已经诞生了。”
01别再自欺欺人:图灵测试已成“过去式”
还记得一年前,2025年的3月,OpenAI发布GPT-4.5的那个春天吗?当时业界还在为参数和算力争吵不休,但在一个最古老的测试场上,胜负已分。在严格的图灵测试中,GPT-4.5被人类受试者判定为“真人”的比例高达73%。
讽刺的是,在同一场测试中,真正的人类被判定为“人”的比例,竟然比AI还要低。
这意味着什么?意味着在“像人”这件事上,AI已经比人更像人了。更别提现在的读者们,比起人类专家写的晦涩文章,他们甚至更爱读大语言模型生成的文学作品。
然而,奇怪的事情发生了。尽管事实摆在眼前,根据2025年的一项调查,仍有76%的顶级AI研究人员认为AGI遥遥无期。
《Nature》这篇文章的作者们毫不留情地指出:这种认知错位,不是因为AI不够强,而是因为人类“不敢承认”。因为恐惧被取代,因为商业利益的纠葛,我们不断地移动球门,给AGI设下各种不可能完成的定义。
但现在,是时候拨开迷雾,承认现实了。
02别再叫它“学舌鹦鹉”:铁证如山的进化阶梯
曾几何时,嘲笑AI是我们的一大乐事:“它连小学数学都算不对”、“它就是个只会概率预测的随机鹦鹉(Stochastic Parrots)”、“它经常一本正经地胡说八道(幻觉)”。
但在这个2026年的开端,如果你还抱着这些老黄历看AI,那你可能已经成了那个“活在旧时代的人”。
文章作者并没有空谈哲学,而是根据一系列硬核证据,构建了一个评估AGI的“三级阶梯”。对照一下,你会发现我们正处于什么位置:
Level 1:图灵测试级(已通关)
这是几年前的标准。能通过学校的基础考试,能进行像样的对话,能做简单的推理。那时的AI,或许还只是个“聪明的复读机”。
Level 2:专家级(Current Level,当前已达成)
这就是我们现在面对的怪物。
数学:它们不仅拿下了国际数学奥林匹克竞赛(IMO)的金牌,还能与顶级数学家合作证明未知的定理。
科研:它们生成的科学假设,已经在现实世界的实验室里被验证为真。
全能:它们能通过多学科的博士资格考试,能帮专业程序员写出无Bug的复杂代码,能精通几十种语言创作诗歌,还能同时和全球数亿人聊天。
对比:科幻电影《2001太空漫游》里的超级计算机HAL 9000曾是我们的噩梦,但现在的LLM在知识广度上,实际上已经超越了HAL 9000。
Openclaw掀起AI大航海时代:我们是哥伦布,还是被发现的印第安人?
Level 3:超人类级(正在逼近)
这要求AI做出人类完全做不出的革命性科学发现。虽然AI还没完全做到这一点,但作者强调:这不是AGI的必要条件。毕竟,能不能拿诺贝尔奖并不是衡量一个人是否“有智能”的标准。
面对这些成就,那些质疑声显得越来越苍白。每当AI攻克一个新堡垒(比如做出了从未见过的数学题),怀疑论者就会立刻把标准提高:“哦,那不算,它得能理解情感才行……”
对此,文章中有一句精彩的“打脸”:
“面对每一次成功都在不断后退的假设,预测下一次一定会失败……这根本不是有说服力的科学理论,这只是对‘永远怀疑’的一种教条式坚持。”
不管是做数学题、写代码,还是理解物理世界的因果律(比如它知道枕头掉地上不会碎,而玻璃杯会),现在的AI都表现出了图灵当年所定义的“通用认知能力”。
AGI的大门已经被踢开了。无论你是否准备好,我们都已经和一种“异类智能”生活在了同一个屋檐下。
03为什么专家还在装睡?因为我们把AGI神话了
既然证据确凿,为什么还有76%的专家摇头说“不”?为什么我们在社交媒体上还在争论AI是不是“人工智障”?
文章指出,问题出在我们对“智能”的定义上,我们太自恋了,也太苛刻了。
误区一:AGI=全知全能的神
很多人潜意识里觉得,AGI必须是一个完美的“六边形战士”。它得有爱因斯坦的物理头脑,莎士比亚的文采,还得像甚至不像任何一个人类那样犯错。
但作者反问:“居里夫人不懂数论,爱因斯坦不会说中文,难道他们就没有通用智能吗?”
人类都不是全能的,我们凭什么要求AI必须是神?
真相:真正的通用智能,看的是广度(Breadth)和深度(Depth)。只要它能像普通人类一样在不同领域间切换,并且在这些领域达到专家水平,它就是AGI。
误区二:AGI必须像人一样思考
我们总觉得,只有像人类那样有肉体、有情感、会生老病死,才叫智能。
真相:这是一种“碳基生物的傲慢”。就像章鱼的神经系统分布在触手里,外星人可能通过无线电波交流——智能是功能,不是形态。只要它能像人一样解决问题,它是不是硅做的、有没有身体,根本不重要。
AI时代的风险是锁死,2026年打工人更应该马上开始创业
04精彩辩论:十大质疑,逐个击破
这篇《Nature》文章最精彩的部分,莫过于作者化身“终极辩手”,对目前市面上最流行的反AI观点进行了逐一反驳。试举几例。
质疑A:“它只是个随机鹦鹉(Stochastic Parrots),只会拼凑训练数据里的词,根本不懂逻辑。”
《Nature》反驳:这个说法在几年前可能成立,但现在已经过时了。如果它只是拼凑旧数据,怎么可能解出从未发表过的全新数学题?怎么可能帮助科学家发现新的物理定律?这不叫拼凑,这叫推理。如果这也叫鹦鹉,那人类可能也不过是一只比较复杂的鹦鹉。
质疑B:“它没有身体,无法感知物理世界,所以没有真正的理解。”
《Nature》反驳:这是一个巨大的误解。史蒂芬·霍金(Stephen Hawking)在晚年几乎完全失去了身体的行动能力,通过语音合成器交流,难道他的智能就消失了吗?
再者,问问AI:“把玻璃杯和枕头扔到瓷砖地上,会有什么不同?”它能准确地告诉你结果。能进行反事实推理(Counterfactual Reasoning),就证明它脑子里已经有了物理世界的模型。
质疑C:“它没有自主性(Agency),你不给指令它就不动。”
《Nature》反驳:智能不等于意愿。古希腊神话中的德尔斐神谕(Oracle),只有在你提问时才回答,但谁敢说神谕没有智慧?自主性关乎“道德责任”,而不关乎“智力水平”。一个随叫随到的超级智囊,依然是超级智囊。
质疑D:“它学得太慢了,小孩看几次就懂,AI要喂几万亿的数据。”
《Nature》反驳:别忘了,人类小孩的大脑里预装了祖先们进化了几十亿年的“出厂设置”(本能和大脑结构)。AI是从零开始的。而且,一个练了10年才成为大师的棋手,和一个练了1年就成为大师的棋手,他们的棋力是一样的。效率不代表能力。
05越早承认越好,这是一种“异类”的降临
看到这里,你可能还是觉得哪里不对劲。
“可是,它连‘Strawberry’里有几个‘r’有时候都会数错啊!”
没错,这正是文章最后强调的关键点:我们面对的,是一种“异类智能”(Alien Intelligence)。
这就像是一个外星人降临地球。它在某些我们觉得很难的事情上(比如读完1000篇论文并写出综述)易如反掌,却在某些我们觉得很简单的事情上(比如数数、常识判断)显得笨手笨脚。
但这不代表它不是智能,只能说明通往智能的道路不止一条。
人类的智能是为了生存、为了繁衍、为了在丛林里不被吃掉而进化出来的;而AI的智能是从语言的海洋中涌现出来的。
2026年的今天,正如Reddit网友所热议的那样:“我们原本以为AGI会像《终结者》里的天网,结果它更像是一个有些偏科、但智商爆表的‘外星图书管理员’。”
网红时代终结,但每个人仍可以在自己的“梯子顶端”获得成功
06结语:别再试图爬树登月了
在文章的结尾,作者引用了一个著名的旧日比喻。
1965年,哲学家休伯特·德雷福斯曾嘲讽早期的AI研究,说他们试图通过“爬树”来“登月”。意思是方向彻底错了,爬得再高也离月球很远。
几十年来,我们都以为他是对的。
但今天,当我们抬头仰望,却发现我们真的爬上了月球。原来,只要树足够高,数据足够多,结构足够精妙,简单的学习规则真的能涌现出理解世界的智慧。
这是一个哥白尼式、达尔文式的时刻。
哥白尼告诉我们,地球不是宇宙的中心;
达尔文告诉我们,人类不是生灵的主宰;
图灵和今天的AI告诉我们,人类的大脑,也不是智慧存在的唯一形式。
文章末尾写道:
“承认LLM为AGI是一个警钟。这些系统不是“将要到来”,而是“已经存在”。用评估“窄工具”的框架来衡量AGI是远远不够的。当涉及的不再是工具而是通用智能时,共存、责任、归属和治理等问题将进入全新的维度。”
全文的最后一句振聋发聩:
“机器不是正在赶来,它们已经到了。”(The machines aren’t coming;they’ve arrived.)
与其像鸵鸟一样把头埋在沙子里,假装这一切没发生,不如抬起头来,正视这个新伙伴(或者对手)。毕竟,在这个星球上,我们第一次不再是孤独的智慧生物了。【懂】
