国际著名学术期刊《自然》最新发表一篇人工智能研究论文称,研究人员开发出一种能检测大语言模型“幻觉”的方法,这种方法通过“以毒攻毒”方式,能测量生成回答的含义的不确定性,或能用于提升大语言模型输出的可靠性。
乐发2中新网北京6月20日电 (记者 孙自法)基于人工智能(AI)的大语言模型(LLM)回答问题并非总是准确可靠,有时甚至极其智能地以“幻觉”方式提供胡编乱造的答案让人真假难辨,对此如何予以有效检测广受关注。
该论文介绍,大语言模型(如ChatGPT和Gemini)是能阅读和生成自然人类语言的人工智能系统。不过,这类系统很容易产生“幻觉”,生成不准确或没有意义的内容。检测大语言模型出现“幻觉”的程度很难,因为这些回答的呈现方式可能会让它们看起来很可信。
网友评论更多
75 诸暨c
洗完晾晒的鞋子渗出黄浆,是被脚汗精华包浆了吗?❄❅
2025-07-03 05:14:32 推荐
187****2849 回复 184****8135 :老挝火锅好野,能烤又能涮❆ 来自嵊州
187****1132 回复 184****5561 :想让手机坏得快一点,你就这么充电❇ 来自江山
157****5890 :按最下面的历史版本❈❉ 来自兰溪
93 永康927
想形容那个啥特别那什么,怎么个词来着?点进内文就有答案❊❋
2025-07-03 19:52:42 推荐
永久VIP :治疗期间别吃自己喜欢的食物,因为……❌ 来自义乌
158****4668 :解剖维纳斯:从尸体中诞生的女神,在注视下被层层肢解❍ 来自东阳
158****6600 回复 666❎ :手机放胸口2分钟就能发现致命心脏病?准确率89%❏ 来自临海
14 温岭pk
短视频在吃孩子的大脑?太夸张了!❐❑
2025-07-03 20:31:45 不推荐
瑞安rj :现在番茄又硬又难吃,你跟我说这是福报?❒
186****2445 回复 159****8911 :我教女儿学AI,女儿:能替我写作业吗?能帮我挣钱吗?❓