發現薇趨勢/當AI出現幻覺

發現薇趨勢/當AI出現幻覺

鍔囧牬鐗堥绔欏彴涓�怱PY脳FAMILY闁撹珳瀹跺閰掑揩闁冨簵銆戣崏鎮熷唬鍫翠寒鐩革紒

AI示意圖。 路透

鍙拌埞娼滆埌涓績鎻墝 鍥借埌鍥介�犵帺鐪熺殑

近期一則有趣的生成式AI新聞,內容是這樣說的:「像是ChatGPT等生成式AI,跟人一樣會產生幻覺。所謂的幻覺,是指生成式AI用錯誤、甚至是不存在的資訊回答使用者的提問。其中的錯誤率,ChatGPT是3%,Meta旗下的聊天機器人是5%,而Google的PaLm竟高達27%。」

生成式AI產生幻覺,究竟是件好事還是壞事呢?答案其實取決於使用者更希望它是一個「工具」,還是一個「人」。

生成式AI的原理是這樣的:資料庫蒐集了一大堆資料,經由大型語言模型進行深度學習,在使用者問了問題之後,它重新組織答案,生成我們能理解的語言。

鍗楀北浜哄=鍗楀北鐢㈢嵅 ISO10002瀹㈡埗鐢宠ù铏曠悊绠$悊绯荤当椹楄瓑

這個工具的侷限是無法回答資料庫沒有的資料。這有點像是小時候常常玩的連連看——第一個選項有張三、李四,第二個選項只有「去」,第三個選項有餐廳、山洞、海邊。用這樣的模組創造出的組合,其中一種會是「張三去山洞」;因爲資料庫裡沒有其他資訊,所以它永遠不會出現「王五去百貨公司」。反觀,若生成式AI出現幻覺,那將可能跑出資料庫以外的答案。

鐭ユ�т綋楠屾梾娓稿く锛� 鍙版睙鍥藉鍏洯娓斿か椴滀綋楠屾姤鍚嶇鏉�

美國CNN曾採訪專門研究AI的布朗大學教授,教授表示:「生成式AI的主要任務,就是提供使用者一個看似合理的答案,中間並沒有覈實資料正確與否的步驟。與其說它們謊話連篇,出現幻覺;不如說,這樣的現象比較像是四歲小孩脫口而出的故事,本質上沒有惡意。」

鍏ㄥ椴滈鏂板搧 涓绘敾鍑忛挔楂樼氦绾㈣棞楹�

如何辨別沒有惡意的虛假內容,便是使用生成式AI時必須覈實的原因,這正凸顯了在便利的工具下,「人」特別的價值。

森林好小子(燃燒吧!大哥)
月光下的异世界之旅

然而,生成式AI產生幻覺的意外,在短時間內很難解決,這讓許多懼怕AI工具取代自己工作的人鬆了一口氣。

其實,坊間對於這個工具的衡量維度過於單一,因而引起不必要的恐慌。舉例來說,常看到這類的新聞標題:「ChatGPT AI通過美國大學商學院和法律考試」、「Google AI醫療聊天機器人取得美國醫師資格證書」等。

試問,AI聊天機器人通過上述的考試,就能成爲合格的商學院或醫學院的畢業生嗎?

這讓我想起從前的入學測驗與現在大不同。我考大學的那一年,入學管道還沒有那麼多元,只有「學測」與「指考」。學測成績搭配在校期間其他的優良事蹟,可以參加「推甄」;而指考就是以筆試分數爲主的入學方式,答錯還會倒扣。雖然學測入學考慮了分數以外的向度,但筆試成績沒達到一定水準,還是很難進入理想的學校。

而現今,大學入學考試愈來愈多元,有繁星計劃、學測、推甄、特殊選才、分科測驗等,筆試成績不再是唯一的指標,這確實更符合國際上多元發展的風氣,強調不是隻有智育成績優秀而已,更應該追求五育平均的發展。

而通過各式各樣考試的AI聊天機器人,就比較像是過去只追求筆試成績就得到入學資格的學生,除了考試的幾個科目,其他該具備的能力一樣都不擅長。

凉心未暖 小说

這樣看來,生成式AI要取代「人」,還需要花不少的時間;但作爲化繁爲簡的工具,卻已經足夠協助處理日常事務了。

闂滄浮骞冲師绲傛柤鏈夋湜闁嬬櫦锛� 鍖楀競鍦嬪鏈冧粖瀵╄鏈濄�屽煄閯変竴銆嶈檿鐞�

產生幻覺的生成式AI,以文字生成來說,有點像是過去作文老師期待的,既要有邏輯,又要有想像力。而目前的實際是,有時天馬行空,有時胡說八道。端看把它當成是「工具」還是「人」,才能決定它是好是壞。

褰板寲澶氬榫欍�岀粓鏋侀厤鑹层�嶄寒鐩� 闄愰噺姗樸�佺传涓よ壊鍏堝悗鐧诲満

鐜嬪績鍑屼负浣曞湪闄嗙獊鐒剁垎绾� 浠栧垎鏋愭牴鏈師鍥犮�屽ぇ瀹跺繊鍒版瀬闄愪簡銆嶇綉澶ф帹