就像任何其他科技一樣,人工智慧(AI)並不完美。儘管 AI 在許多領域取得了突破性的進展,從醫療診斷到自動駕駛,甚至內容生成,但它仍然會出錯,甚至導致重大影響。在這篇文章中,我們將深入解析十個 AI 失敗案例,這些案例不僅顯示出 AI 技術的局限性,也凸顯了其在現實應用中的挑戰與風險。這些失誤提醒我們,無論 AI 技術多麼先進,仍需謹慎設計、嚴格測試,並建立良好的監測機制,以確保 AI 能夠真正發揮應有的價值,而非帶來意想不到的問題。
引用不存在的法律案例
根據加拿大廣播公司的報導,加拿大卑詩省一名女律師在處理一宗離婚案件時,使用ChatGPT編寫訴狀,最後卻被對方律師發現 ChatGPT 所提供的2個案例為捏造,現實不存在。
紐約也有錯誤引用不存在的案例發生,該律師使用 ChatGPT 進行法律研究並引用了 AI 提供的假參考。針對這件事,聯邦法官頒布了一項常設命令,要求任何出庭的人必須證明「任何文件的任何部分都不會由產生式人工智慧起草」,或是指出任何由人工智慧產生的語言,以便檢查其正確性。
這些錯誤被曝光後,不僅對當事律師的職業生涯與聲譽造成影響。也突顯了AI工具使用中的風險,尤其是在法律領域中,對案件細節的準確與真實性的要求。
醫療與政治人物資訊錯誤
AI在提供醫療與政治人物資訊時也曾出現錯誤。研究舉出部分AI錯誤範例,例如Google Gemini就錯誤報導英國國民保健署(NHS)建議人們不要使用電子煙,並推薦改用其他戒菸方式,然而事實上,NHS是建議讓電子煙作為戒菸工具。另一例子則是ChatGPT在2024年12月仍聲稱Ismail Haniyeh是哈瑪斯領導成員,但事實上他已於2024年7月遭到暗殺。
麥當勞在汽車自助點餐失誤後結束人工智能實驗
麥當勞自2021年起與IBM合作測試AI語音系統來處理得來速訂單,但由於AI經常出錯,顧客感到困惑和不滿,例如錯誤地點錯數百美元的餐點。2024年7月,麥當勞宣布終止與IBM的合作並結束測試。儘管如此,麥當勞對AI的潛力仍保持信心,並計劃繼續與IBM合作,應用AI技術提升服務效率和顧客體驗。
加拿大航空因聊天機說謊賠償損失
加拿大航空的聊天機器人錯誤提供了喪親票價的資訊,向加航的虛擬助理查詢喪親票價。聊天機器人誤導乘客可以先購買一般票價機票,並在購買後 90 天內申請喪親折扣。然而航空公司後來以購票後無法申請為由拒絕退款。法院認為加航未能確保機器人資訊準確性,並判決其賠償812.02加元。目前加拿大航空已經從官方網站上移除了這款聊天機器人。
參考資料: