近來台灣學術界再度出現 AI 虛構文獻爭議。政治大學國發所本月已表示,一篇博士論文的最終上傳版本參考文獻出現 AI 工具生成書目錯漏,校方已先將論文自資料庫下架,並啟動學術倫理調查程序。這件事之所以引發高度關注,不只是因為個案本身,而是因為它揭露了一個更大的結構性問題,生成式 AI 已經普遍進入研究生的寫作現場,但多數大學對於如何正確使用 AI,仍在規範補課與教學摸索的階段。 

對台灣讀者而言,這個問題不能只看成單一學生的疏失。真正值得警惕的是,AI 所造成的風險並不是只有抄襲,而是更隱蔽、也更危險的「看起來很像真的」的虛構資訊。生成式 AI 可以快速生成作者姓名、論文題目、期刊名稱、卷期頁碼,甚至連格式都模仿得相當逼真。對沒有經過完整研究方法訓練的人來說,這些內容很容易被誤認為是真實文獻,再被直接放進論文、報告或計畫書之中。一旦研究者沒有逐筆核對原始來源,論文表面上像是完成了文獻回顧,實際上卻可能已經踩入學術失信的紅線。 

筆者以實際的經驗來說,過去指導了接近 100 篇的論文。到了最近兩年,AI 的使用,對於臺灣的研究生而言,已經是越來越普遍的事實。目前 AI 的普遍發展,已經讓大學研究所本身,幾乎沒有辦法禁止 研究生在論文的寫作過程中使用AI。實際上在 研究生利用AI 的論文寫作過程中,經常可以發現因產生 AI 幻覺而出現虛假的陳述,或是不存在的文獻。這種情況的確令人憂心,如果研究生或指導老師對此沒有嚴格加以體察,一不小心踏入陷阱的機會很大。

這也是為什麼國際學術規範近兩年對生成式 AI 的態度越來越明確。ICMJE 已明文指出,聊天機器人與 AI 工具不能列為作者,因為作者資格包含對內容的準確性、完整性與原創性負責,而 AI 無法承擔這種責任。Nature 也明確表示,大型語言模型不符合作者資格,若在研究寫作中使用 LLM,應在方法段落或適當位置揭露。Science 體系則同樣強調,AI 不能成為作者,作者本人必須對提交內容負責。這幾套規範共同傳達的訊息非常清楚,AI 可以是工具,但責任永遠回到人。 

從研究倫理的角度來看,若研究者把 AI 編造出來的資料、文獻或結果當成真實內容加以記錄與報告,確實可能落入 論文造假fabrication 或 falsification 的範疇。美國研究誠信辦公室 ORI 對 fabrication 的定義是「捏造資料或結果並予以記錄或報告」,對 falsification 的定義則是操弄研究材料、流程或改變、遺漏資料,使研究紀錄無法正確呈現。也就是說,AI 並不會成為責任主體,真正必須負責的仍是把內容放進學術作品中的研究者本人。 

在台灣,大學端也開始逐步建立規範,但目前仍呈現校級原則與系所指引並行的狀態。成功大學 2025 年公告的學術誠信指引明確要求,使用生成式 AI 時應查驗其準確性,並禁止用 AI 進行剽竊、偽造、變造資料、圖表等違反學術誠信的行為。台灣師範大學的生成式 AI 學習應用指引則強調,使用者應對成果內容負完全責任,並揭露工具名稱、使用方式與角色。台師大部分系所進一步要求,若 AI 提供文獻或資料建議,學生必須自行查證出處、親自查閱原始資料,不能只憑 AI 提供資訊直接引用。這代表校園的方向已經逐漸清楚,問題不在於可不可以用 AI,而在於能不能把使用範圍、揭露義務與查證責任講清楚、教到位。 

真正麻煩的地方在於,很多研究生並不是故意造假,而是在一個規範尚未完全成熟的環境裡,把 AI 當成搜尋引擎、文獻管理工具或初稿助手,卻沒有受過足夠訓練,不知道 AI 最危險的地方恰恰就在於「會一本正經地胡說八道」。這也是為什麼今天最需要補強的,不只是技術使用能力,而是研究方法課程中的查證訓練、引註訓練與學術責任教育。學生若不知道每一則引用都必須回到原始來源確認,那麼 AI 帶來的不是效率,而是把錯誤高速複製到論文裡。 

這種風險並不限於研究生或學術界。過去兩三年,國外已經有多起知名案例顯示,連律師與法律從業人員都曾把 AI 生成的虛構判例提交法院,最後遭到法官制裁或罰款。這些案例之所以重要,不是因為它們發生在法律界,而是因為它們證明一件事,專業身分本身並不會自動抵抗 AI 幻覺。只要使用者把 AI 誤認為可靠資料庫,而不是需要被審核的文字生成工具,就可能付出非常高的代價。 

因此,今天討論 AI 與論文倫理,不能只停留在譴責個案,也不能只用「不要用 AI」這種過於簡化的結論來回應。更合理的方向應該是把 AI 視為高風險輔助工具,建立清楚的使用邊界。語言潤飾、翻譯、摘要整理、架構建議、程式碼除錯,這些用途在嚴格人工覆核下,仍有一定實用性。文獻搜尋、引註編製、理論歸納、研究結果判讀,這些部分則必須列為高風險區,不能交由 AI 直接生成後照單全收。特別是參考書目,最安全的原則不是「讓 AI 先列一份再挑」,而是研究者先進入 Scholar、Scopus、Web of Science、華藝或各大圖書館資料庫,找到原始資料後再自行整理。 

對大學治理來說,下一步最重要的不是增加更多抽象口號,而是盡快把規範落地成可操作的教學制度。研究方法課要納入 AI 使用與查證模組。論文寫作課要教學生如何保存提示詞與修改紀錄。指導教授要在論文初期就明確講清楚哪些用途可接受、哪些用途不可接受。系所與學校也應建立一致的揭露格式,讓學生在致謝、方法或附錄中清楚交代 AI 的工具名稱、版本、用途與人工覆核方式。當規則清楚,學生才知道紅線在哪裡,教師也才有一致的評量依據。 

更重要的是,台灣社會不能把這場爭議理解成單純的技術問題。這其實是在問,學術訓練的核心究竟是什麼。論文從來不只是把資訊拼湊成一篇看起來完整的文章,真正重要的是研究者如何追問、如何查證、如何判斷證據可信度,最後如何對自己的文字負責。AI 可以幫忙加快表達,但不能替代誠實。AI 可以整理材料,但不能代替判斷。學術的根本,不在於寫得多快,而在於能否對每一條引文、每一個判斷、每一段論證負責到底。這一點,在 AI 時代不但沒有改變,反而變得更重要。 

如果今天政大事件能夠帶來一個正面作用,那應該不是讓大家更害怕 AI,而是讓大學與研究者都更清楚看到,從 AI 虛構文獻到論文造假,中間其實只隔著一道「有沒有查證」的門檻。只要學術界還把 AI 當成方便的捷徑,而不是需要嚴格監督的工具,同樣的事件就一定還會再發生。台灣現在最需要的,不是對 AI 的盲目樂觀,也不是情緒化的全面排斥,而是用制度、教育與查核,把生成式 AI 拉回學術誠信可以承受的範圍之內。 

楊聰榮(台中科技大學會計資訊系兼任教師,中台灣教授協會理事長,任教於台灣師範大學)

(文章僅代表作者觀點,不代表Newtalk新聞立場。)