国际著名学术期刊《自然》最新发表一篇人工智能研究论文称,研究人员开发出一种能检测大语言模型“幻觉”的方法,这种方法通过“以毒攻毒”方式,能测量生成回答的含义的不确定性,或能用于提升大语言模型输出的可靠性。
乐发2中新网北京6月20日电 (记者 孙自法)基于人工智能(AI)的大语言模型(LLM)回答问题并非总是准确可靠,有时甚至极其智能地以“幻觉”方式提供胡编乱造的答案让人真假难辨,对此如何予以有效检测广受关注。
该论文介绍,大语言模型(如ChatGPT和Gemini)是能阅读和生成自然人类语言的人工智能系统。不过,这类系统很容易产生“幻觉”,生成不准确或没有意义的内容。检测大语言模型出现“幻觉”的程度很难,因为这些回答的呈现方式可能会让它们看起来很可信。
网友评论更多
65南雄j
副省长郑备,进京履新🔁🔂
2025-07-04 21:30:31 推荐
187****9072 回复 184****3887:四名省级党委常委密集履新,包括一名中候补!🔃来自兴宁
187****8653 回复 184****8221:德国驻以大使怒批:耻辱!🔄来自普宁
157****3687:按最下面的历史版本🔅🔆来自陆丰
56恩平602
5天涨粉超400万,一夜带火菏泽南站,为什么是郭有才?🔇🔈
2025-07-06 02:04:31 推荐
永久VIP:超长期特别国债今日发行,30年期利率2.57%,你会买吗🔉来自台山
158****9277:印尼,怎么就行了?🔊来自开平
158****5062 回复 666🔋:大凉山血色彩礼:36.8万元,两条人命🔌来自鹤山
37四会vv
湖北松滋警方通报“警车高速拦停私家车”:涉事民辅警停职🔍🔎
2025-07-06 21:15:23 不推荐
罗定na:拜登反对拜登又一例!华春莹再晒对比图🔏
186****6015 回复 159****7716:中国海警强力震慑!菲“冲闯黄岩岛”闹剧收场,灰溜溜撤了🔐