全球著名的會計公司也裁跟頭:勤業眾信誤用AI錯誤資料出大包

楊聰榮(台中科技大學會計資訊系兼任教師,中台灣教授協會理事長,任教於台灣師範大學)

全球知名的會計與顧問公司勤業眾信(Deloitte)公司近日在澳洲爆發AI報告醜聞,這起事件已不僅是單一企業的失誤,更是對整個專業服務產業與政府AI監管體系的一記警鐘。勤業眾信為澳洲政府撰寫一份價值44萬澳幣的福利監督報告,承認部分內容使用了生成式AI(Azure OpenAI GPT-4o),結果卻出現大量虛構的學術引用、偽造的法院判決與捏造的教授姓名,嚴重損及報告的專業性與公信力。事件曝光後,勤業眾信公司被迫退還部分款項並修改內容,聲稱結論未受影響,但損害已然造成,政府與社會對AI使用透明度的疑慮也隨之升高。

這起事件最早由雪梨大學學者Chris Rudge揭發,他發現報告內出現不存在的資料與錯誤拼寫的法官名字,顯示AI「幻覺」問題仍難以根除,更嚴重的是報告未明確揭露AI的參與。這種隱瞞不僅違反專業倫理,也讓政府決策建立在不透明的資訊之上。Rudge的揭露促使相關單位全面重審報告,並在更新版本中承認AI介入,讓AI信任度與查證機制成為輿論焦點。

勤業眾信事件反映出全球顧問業普遍存在的結構性矛盾,一方面為了提升效率,大量導入AI協助撰寫與分析。另一方面,人工審查與驗證卻未能同步跟上。根據多國調查,約有四成的專業人員每日需花近兩小時修正AI產生的錯誤,導致工作效率不增反降。對以精準為核心價值的顧問產業而言,若未落實人為把關,就讓AI成為專業信任的破口。澳洲參議員Deborah O’Neill更以諷刺口吻指出,「或許政府還不如直接訂閱ChatGPT」,凸顯AI監督不足所帶來的荒謬。

更令人警惕的是,AI幻覺問題並非僅出現在顧問業。2025年,澳洲維多利亞高等法院一名律師在謀殺案辯護中引用AI生成文件,結果文中出現根本不存在的最高法院案例與演說紀錄。該律師不得不在法庭上公開道歉並承認全責。此後,美國、英國、澳洲等地也接連爆發多起AI造假引用事件,許多律師甚至因此遭罰款、訓誡或失去執業信任。法院普遍強調,「AI錯誤會摧毀專業信用」,任何AI生成內容若未經人工查證即提交,將構成倫理違反。這些案例說明,即使AI工具能提升生產力,若忽略驗證,就可能帶來毀滅性的信任災難。

對政策制定者而言,勤業眾信事件提供了具體的警示與改革方向。政府應在所有公共採購契約中,明確要求承包單位揭露AI使用比例、模型種類與資料來源,並強制記錄人工審核過程。政府應建立第三方AI產出審查機制,由獨立專家抽查AI生成內容的真實性,防止專業報告內部自我審查的盲點。政府部門需定期舉辦AI倫理與風險培訓,培養公務人員辨識AI幻覺與審查能力,真正落實「人機協作」的責任分工。也應該推動AI透明問責平台,公開政府AI報告的生成紀錄與審查流程,接受社會監督,讓AI應用回歸信任與可檢驗的軌道。

台灣正處於積極導入智慧治理與AI決策的關鍵時期,勤業眾信事件無疑是一面鏡子。科技帶來便利,但若缺乏透明與監督,最終將損害的是政府公信與社會信任。唯有在制度上強化AI使用揭露、責任歸屬與審查流程,台灣才能在推動AI創新的同時,確保每一份政策分析都站得住腳,讓智慧治理成為民主與信任的延伸,而非其瓦解的起點。

(文章僅代表作者觀點,不代表Newtalk新聞立場。)