全球四大會計師事務所之一的勤業眾信(Deloitte)澳洲分公司,近日因一份AI生成報告的嚴重錯誤而陷入信任風暴。這份長達237頁、價值44萬澳幣的政府委託報告,原本旨在協助澳洲就業及工作關係部(DEWR)檢討「目標合規框架」(Targeted Compliance Framework),卻被揭發包含多項虛構的學術引用、捏造的聯邦法院判決,甚至連教授姓名都被AI「幻覺」出來。這起事件不僅重創勤業眾信的專業形象,也讓全球顧問業對AI工具的濫用問題造成衝擊很大
這次醜聞由雪梨大學健康與福利法研究中心副主任Christopher Rudge博士揭露。他指出報告中多項資料根本查無實據,明顯是生成式AI在「缺乏足夠資料」時自動編造的產物。這種現象被稱為AI的「幻覺」(hallucination),但當這樣的錯誤出現在政府委託、涉及公共政策的正式報告中,問題已不僅是技術缺陷,而是制度信任的崩塌。
其實澳洲四大會計師事務所早在2023年就曾被揭發使用Google Bard產生假資訊,事後雖公開道歉,但仍未建立嚴謹的AI審核機制。如今AI幻覺再度釀成公關災難,讓「專業顧問」這一行的招牌蒙上陰影。勤業眾信在澳洲負責審計全國前200大企業中的193家,其報告被信任為政策依據,如今的錯誤,等於動搖了整個專業諮詢業的根基。
在輿論壓力下,勤業眾信雖承認使用了微軟Azure OpenAI的GPT-4o模型,但聲稱AI僅用於「文件補足與追溯用途」,錯誤應歸因於人為疏失。公司同時宣布放棄合約尾款,退還部分費用。然而令人諷刺的是,幾乎在同一天,勤業眾信又宣布與AI新創公司Anthropic擴大合作,讓全球47萬名員工全面使用Claude聊天機器人,並計畫培訓1.5萬名員工取得AI認證。
這種「一邊道歉、一邊加碼」的作法,凸顯了企業在AI時代的矛盾處境,既想展現創新能力,又害怕失控風險。顧問業專家指出,顧問公司目前面臨雙重壓力:若不導入AI,會被視為落後;導入AI,若未監管好,又容易因幻覺與誤用引發信任危機。KPMG近期的內部報告就直言:「在AI主導的時代,最該強化的不是演算法,而是人工驗證與倫理治理。」
這起事件同時揭露了澳洲政府在AI使用規範上的監管缺口。Rudge博士指出,勤業眾信的修訂報告雖刪除部分錯誤引用,但新增內容仍有多處無法查證,顯示問題根本未解決。澳洲參議員Deborah O’Neill批評該公司「不只是AI出了問題,而是人腦也出了問題」,並揶揄政府「乾脆直接訂閱ChatGPT就好」。
專家建議,政府未來在採購案中應強制要求明確揭露AI使用比例與工具來源,設立人工審核檢查點,並將AI幻覺列入違約條款。根據國際律師協會統計,僅2025年7月,全球就有超過50宗AI生成虛假法律引用的案例,顯示問題已非個案,而是制度層面的警訊。Gartner數據指出,近半數企業因AI錯誤而蒙受聲譽損失,平均每起事件損失高達55萬美元。
儘管GPT-4o以多模態處理能力與高速反應著稱,但在引用驗證與邏輯推理上仍顯得不穩定。AI風險顧問公司Resilience Forward提醒,生成式AI的輸出應具備「實體密度控制」,也就是每段文字中應包含可驗證的事實比例,並由人工審核確保資料真實。德國聯邦資訊安全局(BSI)甚至建議,對法律、財務、政府顧問等高風險領域,應禁止單獨使用AI生成內容。勤業眾信事件再次證明,再強大的AI,也無法取代人類的專業判斷。專業報告若缺乏嚴謹的審核機制,AI生成的速度優勢就會變成最大的風險來源。
這場AI信任危機為企業帶來深刻啟示。未來的商業合作,不再是「付錢買專業」,而是「付錢買透明」。企業應要求顧問公司提供研究方法論、原始數據與第三方驗證報告,並將AI生成內容納入揭露義務。企業AI治理的重點應包括三項原則:合約條款中明確規定揭露與稽核機制、成立AI倫理與風險治理委員會,以及加強員工辨識AI幻覺與錯誤資訊的能力。隨著各國監管機構效法歐盟AI法案,強制要求高風險應用納入人工審核,若企業仍盲目依賴AI而忽略驗證,不僅聲譽受損,還可能觸及法律責任。
勤業眾信事件不只是一次技術事故,而是一面鏡子,映照出人類在AI浪潮下的焦慮與盲點。生成式AI的出現讓知識生產更快、更廣,但也讓真實與虛構的界線越來越模糊。對企業而言,AI不再只是效率工具,而是信任治理的新考驗。唯有在透明、驗證與倫理監管的基礎上,AI才能真正成為專業的助力,而非信任的毒藥。台灣企業在積極導入AI之際,更應汲取這起國際案例的教訓,在追求創新的同時,絕不能忽略「真實」、「責任」與「信任」這三項民主經濟的根本價值。
(文章僅代表作者觀點,不代表Newtalk新聞立場。)