生成式人工智慧(AI)在近年迅速滲入各種專業領域,但在法律界,AI不僅帶來效率,也會帶來錯誤,更暴露出一場關於誠信與責任的危機。過去兩年,全球已有多起律師因未查證AI生成內容而誤植虛假資訊、引用不存在的判例,導致案件延誤、當事人權益受損,甚至引發紀律處分。這些事件顯示,AI的「幻覺」(hallucination)不只是技術問題,更是專業倫理的試煉。
在澳洲,一起維多利亞高等法院的謀殺案成為警訊。該案律師為節省撰稿時間,直接使用AI生成法庭文件,卻未加核對內容。結果文件中竟出現虛構的州議會演說引述與不存在的最高法院判決,使整份陳述書淪為錯誤文件。該名律師最終在法庭上公開道歉,承認「完全負責」這項AI導致的錯誤。法官嚴正指出:「律師提交的資料必須確保準確,AI生成的內容需經獨立且嚴格查證後方可採用。」這不僅延宕案件進度,更重創律師的職業信譽,也揭露出專業工作若過度倚賴AI而忽略查核,後果可能極為嚴重。
在美國、英國與澳洲等地,類似的情況也層出不窮。多起案件顯示,律師在使用AI撰寫法庭文件時誤引虛構判例、誤植資料或引用無法查證的內容,導致法官拒收文件,甚至對律師開罰或停權。美國有一名專家證人在AI造假引用事件後被撤銷資格,法院明確指出:「AI產生的錯誤會徹底破壞專業信用。」這些案例使司法界逐漸形成共識,所有法律文件都必須由律師親自查核事實,AI只能作為輔助工具,絕不能取代人為驗證。自2023年以來,多國法院已陸續對AI誤用者祭出罰款、訓誡及紀律處分,特別是在涉及虛構判例或法律引用時,這類AI錯誤已被視為對司法信任體系的嚴重威脅。
法律工作的根本在於事實與證據,而AI並不具備理解真實與責任的能力。AI的運作原理是根據語料生成看似合理的文字,卻無法區分真偽與邏輯。當律師將AI視為「可靠助手」而非「輔助工具」,就可能讓虛構的內容進入正式文件,進而誤導法庭。法律倫理明確規定,律師對文件真實性負有不可轉委的責任。AI可以協助搜尋資料、整理論點或草擬文字,但任何引述、判例與陳述內容都必須由律師本人核對與確認,否則不僅違反專業倫理,也可能構成對法庭的不實陳述。
面對這些事件,法律界需要的不只是懊悔,而是制度性的防線。律師公會與司法機關應訂定AI使用準則,要求所有提交法院的文件揭露AI使用比例、資料驗證流程與人工審核紀錄,確保透明。法律教育也應納入「AI倫理與資料查證」課程,讓未來的法律人理解AI的限制與風險。同時,AI平台開發者也應負起責任,提供來源追蹤與引用驗證工具,減少使用者誤信AI生成內容的風險。唯有透過技術透明與人為責任並行,AI才能真正成為法律工作的輔助力量,而非信任崩潰的導火線。
AI的進步固然令人驚嘆,但再先進的技術,也不能取代誠信與責任。當律師誤用AI、放棄查證,最終失去的不只是案件,而是整個法律體系的公信力。科技應該服務正義,而不是製造幻覺。唯有在AI時代中堅守專業、維護真實,法律才能在變動的科技浪潮裡,持續成為社會信任的最後防線。
楊聰榮(台中科技大學會計資訊系兼任教師,中台灣教授協會理事長,任教於台灣師範大學)
(文章僅代表作者觀點,不代表Newtalk新聞立場。)