英国哲学研究人员谈幻觉:用胡说八道来形容更准确

IT之家6月12日消息,长期以来,人们常常把大语言模型提供的看似合理但错漏百出的答案称作“AI幻觉(AIhallucinations)”。然而,来自英国格拉斯哥大学的三名哲学研究人员近期提出了不同的看法——“AI幻觉”这样的描述并不准确。

当地时间6月8日,《伦理与信息技术》杂志刊登了三名研究人员的论文。这篇论文指出,聊天机器人“胡编乱造”回答的行为不应被称为“幻觉”,用“胡说八道(bullshitting)”一词来描述才更准确。

研究人员指出,学习过心理学或使用过迷幻类药物的人都知道,“幻觉”通常被定义为看到、感知到不存在的东西。而在AI领域,“幻觉”显然是一种隐喻,大语言模型根本看不到、感知不到任何东西。AI并非经历“幻觉”,而是在复制训练数据中的人类语言模式,并不关心事实的准确性。

机器并非试图传达它们相信或感知到的东西,它们的不准确性并不是因为误解或幻觉。正如我们所指出的,英国哲学研究人员谈幻觉:用胡说八道来形容更准确它们根本不是在试图传递信息,它们是在胡说八道。

研究人员认为,AI模型没有信念、意图或理解力,它们的不准确性不是因为误解或幻觉,而是因为它们被设计用来创建看起来、听起来都正确的文本,没有任何“内在机制”来确保事实的准确性。

图源Pixabay

IT之家曾多次报道过“AI幻觉”有关现象。例如最近的“谷歌搜索推荐用户往披萨里加胶水”,以及马斯克的Grok“误认为”自己是OpenAI的产品等等。

剑桥词典(CambridgeDictionary)去年宣布,2023年的年度词汇为“hallucinate”(产生幻觉),原意为似乎看到、听到、感觉到或闻到“一些不存在的东西”,通常是指用户在不良健康或者服用药物状态下产生的幻觉。伴随着AI的崛起,hallucinate延伸为AI产生幻觉,生成错误的信息。

免责声明:本网站部分内容由用户自行上传,若侵犯了您的权益,请联系我们处理,谢谢!联系QQ:2760375052

分享:

扫一扫在手机阅读、分享本文

纤尚

这家伙太懒。。。

  • 暂无未发布任何投稿。

最近发表