现在生成式 AI 的迅猛开展和广泛应用引发了许多忧虑,从隐私安全到潜在的赋闲危机。
尽管 AI 谈天机器人如 ChatGPT 和微软 Copilot 在短短时间内取得了惊人前进,能够写代码、纠错乃至应战人类构思,但它们真的像外表看起来那么聪明吗?
麻省理工学院计算机科学与人工智能实验室(CSAIL)的一项最新研讨指出,这些强壮的大型言语模型(LLM)好像更依靠回忆而不是真实的推理才能。它们在了解的使命上表现出色,但在面对新问题时却显得无能为力。
研讨人员经过比照 AI 在不同使命上的表现得出这一定论。例如,GPT-4 在十进制算术方面表现优异,但在其他进制下却难以应对,相似的现象也出现在棋类游戏和空间推理等范畴。
研讨人员以为,AI 更像是回忆力出众的“鹦鹉”,而非具有真实推理才能的“智者”。
研讨成果表明,AI 在训练有素的范畴内能够到达乃至逾越人类水平,但这更多的是一种“回忆力”的表现。一旦面对全新的应战,需求真实的推理才能时,AI 的优势便不再显着。
这一发现对 AI 的未来开展提出了新的应战。尽管 AI 在某些范畴现已展现出逾越人类的才能,例如自动化很多重复性作业,但在构思、处理复杂问题等方面仍有巨大的提高空间。
例如,一些媒体组织尝试用 AI 替代记者,成果却发现 AI 生成的新闻错误百出,反而增加了修改的作业量。
游戏职业也面对相似的问题,AI 东西尽管能辅佐开发进程,但中心构思和游戏体会的打造依然离不开人类的才智和创造力。