打开科技新闻,几乎每天都能被各种天文数字轰炸,某公司推出拥有万亿参数的新模型、某数据中心采购数万块顶尖GPU、超级计算机的浮点运算速度又刷新了纪录……这些令人眩晕的数字背后,似乎潜藏着一个默认的逻辑公式:更大的算力加上更多的数据,就等于更强的智能。
在信息时代初期,更快的处理器确实带来更流畅的体验和更复杂的软件。于是,我们理所当然地认为,只要不断地堆叠显卡,那个全知全能的“通用人工智能”就会在某个时刻突然涌现。
现实情况可能比这个美好的愿景要复杂得多。算力的指数级增长无疑是推动近年来AI浪潮的基石,但如果把算力等同于智能,就像是认为只要拥有了世界上最强大的引擎,就自动成为一名顶尖的赛车手一样天真。当一个大语言模型流畅地回答你的问题时,它并不是像人类一样理解了你的意图,然后进行了逻辑推理。它只是根据它“读”过的互联网上数以亿计的文本,计算出在当前上下文中,下一个最可能出现的字词是什么。这种基于统计相关性的“智能”,与人类真正理解世界的智慧有着本质区别。人类的智能核心在于因果推理、常识判断及举一反三的泛化能力。 市科协供稿


