新聞媒體

最新

新聞

活動

電子報

成功案例

2024.07.11

小心!AI也會瞎掰,專家教你怎麼避免AI幻覺

國際期刊《自然》(Nature)發表一篇英國牛津大學與澳洲皇家墨爾本理工大學合作的研究,發現大型語言模型(LLM)因為缺乏知識而有所謂的AI幻覺,就如同腦部受損的虛談症(Confabulation)患者,明明說的每句話都可以讓人聽懂,但就是不符合實際情況。

台灣科技媒體中心特別報導,生成式AI實驗室(Gufo Lab)主持人曾元顯教授對此篇研究的看法,指出我們期待訓練AI系統能夠「創造」,但「創造」與「捏造」幾乎是一體兩面。同樣的東西從某一面向看是創造,但從另一面向看可能就是捏造。

曾元顯教授同時也提供偵測方法,是一個AI系統對一個問題,生成回答之後,請同一個AI系統或是另一個AI系統,用這個回答,生成多組問法不同的問題,例如Q1、Q2。接著再請AI系統回答這些問題。若有多組問題,而這多組的答案之間語意皆相似,彼此間可以互相推論出來而有蘊含的關係,則表示可以判斷最初AI系統的回答,是真實的答案,反之則表示答案為虛構、捏造的。

 

各大媒體報導:

找不到內部資料怎麼辦? Gufonet讓你不再擔心被老闆「刮」
借助NVIDIA之力 和平整合打造AI火災預警,智慧防災降低危害

本網站使用cookies以提昇您的使用體驗及統計網路流量相關資料。繼續使用本網站表示您同意我們使用cookies。我們的隱私及Cookie政策提供更多關於cookies使用及停用的相關資訊。

我接受