资讯

研究发现人工智能系统擅长模仿但不擅长创新

编译 2023-12-25 05:59 techxplore 来源:techxplore

人工智能(AI)系统经常被描绘成有生命的代理,它们的存在将使人类的智慧黯然失色。但加州大学伯克利分校的研究人员发现,人工智能缺乏人类至关重要的创新能力。

根据发表在《心理科学展望》(Perspectives on Psychological Science)上的研究结果,儿童和成人都能通过为日常物品寻找新用途来解决问题,而人工智能系统却往往缺乏以新方式看待工具的能力。

像 ChatGPT 这样的人工智能语言模型是在包含数十亿个单词和人类图像的数据集上被动训练出来的。这使得人工智能系统能够发挥类似于写作的 "文化技术 "的作用,可以总结现有的知识。文章的共同作者尤妮丝-姚(Eunice Yiu)在接受采访时解释说,但与人类不同的是,人工智能系统在对这些想法进行创新时会遇到困难。

"即使是年幼的人类儿童也能对某些问题做出[语言学习模型]无法做出的智能回答。"Yiu 说:"与其把这些人工智能系统看作像我们自己一样的智能代理,不如把它们看作一种新形式的图书馆或搜索引擎。它们能有效地总结并向我们传达现有的文化和知识库。"

Yiu和Eliza Kosoy与他们的博士生导师、论文的资深作者、发展心理学家Alison Gopnik一起,测试了人工智能系统的模仿和创新能力与儿童和成人有何不同。他们向 42 名 3 至 7 岁的儿童和 30 名成人展示了日常物品的文字描述。

在实验的第一部分,88% 的儿童和 84% 的成人能够正确识别哪些物品与另一物品 "最配"。例如,他们将指南针与尺子配对,而不是与茶壶配对。

在下一阶段的实验中,85% 的儿童和 95% 的成人还能够创新地使用日常物品来解决问题。例如,在一项任务中,参与者被问及如何在不使用圆规等典型工具的情况下画出一个圆。

在类似的工具(如直尺)、不同的工具(如圆底茶壶)和无关的工具(如炉子)之间进行选择时,大多数参与者都选择了茶壶,这种概念上不同的工具却能发挥与指南针相同的功能,让他们描绘出圆的形状。

当Yiu和同事向五个大型语言模型提供相同的文字描述时,这些模型在模仿任务中的表现与人类相似,得分率从表现最差的模型的59%到表现最好的模型的83%不等。然而,人工智能对创新任务的回答却没有那么准确。表现最差的模型选择有效工具的比例为 8%,表现最好的模型为 75%。

Yiu说:"孩子们可以想象出他们从未见过或听说过的物品的全新用途,比如用茶壶底部画一个圆。"大型模型就很难产生这样的反应。"

研究人员指出,在一个相关的实验中,儿童仅通过实验和探索就能发现新机器的工作原理。但当研究人员给几个大型语言模型提供儿童产生的证据的文字描述时,他们却很难做出同样的推断,这很可能是因为答案没有明确包含在他们的训练数据中,Yiu 及其同事写道。

Yiu及其同事写道,这些实验表明,人工智能对语言模式统计预测的依赖不足以发现世界的新信息。

Yiu说:"人工智能可以帮助传递已知信息,但它不是创新者。"这些模型可以总结传统智慧,但它们无法像年轻人那样扩展、创造、改变、放弃、评估和改进传统智慧。"

不过,人工智能的发展仍处于早期阶段,关于如何扩大人工智能的学习能力,还有很多东西需要学习,Yiu 说。她说,从儿童好奇、主动和内在动机的学习方法中汲取灵感,可以帮助研究人员设计出新的人工智能系统,为探索真实世界做好更充分的准备。

0 0

网友评论

取消