AI幻覺好比人腦受損 專家提醒需謹慎判別
國際期刊《自然》(Nature)發表一篇英國牛津大學與澳洲皇家墨爾本理工大學合作的研究,發現大型語言模型(LLM)因為缺乏知識而有所謂的AI幻覺,就如同腦部受損的虛談症(Confabulation)患者,明明說的每句話都可以讓人聽懂,但就是不符合實際情況。
非營利的台灣科技媒體中心20日發布新聞稿指出,ChatGPT能夠回答使用者的問題、可以生成書信,但仍然會編造錯誤、虛假的資訊,這就是學界所稱的AI幻覺。
當AI的應用漸趨多和複雜,使用者或第三方也愈來愈難審查或監督,且使用者越多,被錯誤資訊影響的風險也越高。如果沒有完善的設定訓練大型語言模型的目標,將造成生成式AI自信滿滿的推論錯誤,並誤導使用者。
國立高雄科技大學電機工程系教授戴鴻傑認為,腦部受損的虛談症患者會把一個簡單事件,拐彎抹角的說了半天還沒說到重點。這種虛談症的行為正符合現今大型語言模型在某些情況下的幻覺表現。
現在最大的問題就是大型語言模型其實分不清楚它生成出的東西哪些是真的、哪些是自己虛構的。所以目前AI模型的限制是,它很擅長接自己講的話,就算發現自己講錯了,但是因為話已經說出口了,只能繼續圓下去。
台灣師範大學圖書資訊所特聘教授曾元顯則認為,大家期待訓練AI系統能夠「創造」,但「創造」與「捏造」幾乎是一體兩面。同樣的東西從某一面向看是創造,但從另一面向看可能就是捏造。
目前看到市面上的生成式AI系統,都能完全符合語法規則,甚至可被指示按照某一種風格產生回應文字,但目前AI系統仍然沒有完整的世界知識或常識。因為知識與常識列舉不完,以致於難以完全納入訓練資料中來訓練AI系統。
例如問生成式AI:「台灣最古老的水井在哪裡?」,GPT 3.5 Turbo、MythoMax 13B、Mistral 7B Instruct這三個AI系統的回答都不一樣。而且回答得都很有自信的樣子,讓使用者以為這就是答案。因此不論研究者或是使用者,都很難避免生成式AI產生幻覺、捏造。因此建議使用者需謹慎判別,避免過度依賴。
責任編輯:蔡雨婷



_bigbutton2.gif)



