生成式AI自去年上市以來,已經造成新聞媒體諸多疑慮。例如:

製造虛假的新聞消息來源。

今年4 月 6 日《衛報》的編輯創新主管克里斯‧莫蘭 (Chris Moran) 發表了一篇名為“ChatGPT is making up fake Guardian articles. Here’s how we’re responding” () 指出三月份時,衛報的一位記者收到一位研究者的電子郵件,表示他們使用 ChatGPT 進行研究時, 它為了回應被問及關於這個主題的文章,這個生成式AI 編造了一些號稱是來自衛報某篇文章的內容。 文章的流暢性,以及它所建立的大量數據,使得這篇AI生成的作品的存在對於這位研究者來說甚至是可信的,因此去信《衛報》詢問。但是《衛報》內部的人在其網站中遍尋不著該篇文章的下落。 內部的人甚至懷疑,該文自推出以來,標題可能已經被更改了嗎? 是否由於發現文章有問題而有意將其從網站上刪除? 還是被文章報導的對象通過法律手段強制撤下了?最後發現,其實根本沒有這篇文章的存在。

克里斯·莫蘭 (Chris Moran)今年五月參加ONO(Organization of News Ombudsmen and Standard Editors)在倫敦舉辦的年會,於一場AI的討論會中擔任與談人,開宗明義就舉了上述發生在《衛報》的例子。[1]

對肖像權、隱私權,和著作權的侵害。

人工智慧產生的資料,包括文字、表格與圖像,有可能會涉及侵害他人的肖像權、隱私,與各類資料的合理使用範圍。

形成認知偏差與複製偏見。

當生成式AI學習對象的資料庫不完整或有偏見時,生成式AI產製的內容,就非常有可能導致使用者的認知偏差或複製偏見[2]。例如:

1、 Amazon 亞馬遜自動招聘系統歧視女性

2、 COMPAS 種族偏見與再犯罪率

COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) 是美國預測再犯罪率的工具,由Northpointe,Inc.研發。系統預測黑人相比白人更有可能被錯誤判斷為具有更高的再犯風險。

3、 美國醫療保健低估黑人病患需求。 用於美國醫院的AI 系統分析超過2億人的醫療保健成本歷史,以成本評估哪些患者需要額外醫療照護。但這忽略黑人和白人患者不同的支付方式,整體來說黑人患者的醫療費用低於同等條件下的白人患者,因此系統得出黑人患者比同樣患病的白人患者更健康的錯誤結果(黑人患者獲得更低的風險評分),在相同需求下也無法獲得和白人患者一樣多的額外護理,估計種族偏見的計算方式使被確定需要額外護理的黑人患者人數減少了一半以上。

4、 ChatBot Tay 分享歧視推文。 2016年微軟推出Tay 聊天機器,希望能在Twitter上與用戶對話互動中學習。但不到24小時,聊天機器人就開始分享種族主義、恐跨和反猶太主義的推文。它從與用戶的互動中學會歧視行為,不乏用戶對機器人提供煽動與歧視性言論。

5、 在幾天前(September 19 at 1200 UTC)的ONO Shop Talk中,有一位參與的公評人提到有人請ChatGPT用種族的膚色來分析各種行業的人種,結果律師、會計師這些行業出現的都是白人,恐怖分子出現的清一色都是有色人種,強化了種族主義與種族偏見。

6、 AI已經被使用在各種犯罪和詐騙的手法中。

基於上述疑慮,國外已有不少媒體針對如何使用AI訂定準則,並向社會公告以示負責,例如英國公視BBC 、加拿大公視CBC,以及英國《衛報》、《路透社》(Reuters)等媒體組織。相關細節,公視董事長胡元輝近期已在其投書《天下獨立評論》的文章〈興奮之外,更須警惕!媒體業急需制訂AI倫理規約〉 有非常詳盡的說明。[3] 事實上,在公視的官網上,也已經可以找到一份名為「公視基金會AI使用準則」的資料[4]。

美聯社的記者亞曼達‧巴雷特(Aman Barrett)在一篇名為〈圍繞生成式AI的標準〉(Standards around generative AI[5])的部落格文章中,簡述了一些美聯社對於記者使用生成式AI時的規範。

「★ 生成式人工智慧工具的任何輸出都應被視為未經審查的來源材料。

★ 美聯社工作人員在考慮發布任何資訊時必須運用其編輯判斷和美聯社的採購標準。

★ 根據我們(美聯社)的標準,我們不會更改照片、影片或音訊的任何元素。 因此,我們不允許使用生成式人工智慧來添加或減少任何元素。

★ 我們將避免傳輸任何被懷疑或被證明是對現實的虛假描述的人工智慧產生的圖像。 然而,如果人工智慧生成的插圖或藝術作品是新聞報導的主題,只要在標題中明確標記,就可以使用它。

★ 我們敦促員工不要將機密或敏感資訊放入人工智慧工具中。

★ 我們也鼓勵記者謹慎行事,確保從其他來源進入美聯社的資料也不包含人工智慧生成的內容。

生成式人工智慧使人們更容易透過更改的文字、照片、影片或音訊故意傳播錯誤和虛假訊息,包括可能沒有更改跡象、顯得真實可信的內容。 為了避免無意中使用此類內容,記者應像平常一樣保持謹慎和懷疑態度,包括嘗試識別原始內容的來源,進行反向圖像搜索以幫助驗證圖像的來源,以及檢查來自類似內容的報道值得信賴的媒體。

如果記者對材料的真實性有任何疑問,他們就不應該使用它。」

至於《衛報》則在今年一月份,就由凱瑟琳‧維納和安娜‧貝特森(Katharine Viner and Anna Bateson)兩人合寫了一篇〈衛報如何因應生成式AI〉(The Guardian’s approach to generative AI[6]),介紹《衛報》對於生成式AI的規範原則。文中提到共有三大原則:

  1. 為了讀者利益:

「我們將尋求僅在有助於原創新聞創作和傳播的情況下在編輯中使用生成式AI 工具。 我們將防範生成工具及其底層訓練集中嵌入的偏見危險。 如果我們希望在作品中包含人工智慧生成的重要元素,只有在有明確證據表明特定益處、人工監督以及高級編輯的明確許可的情況下,我們才會這樣做。 當我們這樣做時,我們將向讀者揭露。」

  1. 為了我們的使命、我們的員工和更廣泛的組織的利益:

「當我們使用生成式AI 時,我們將重點關注它可以提高我們工作品質的情況,例如幫助記者查詢大型資料集、透過糾正或建議協助同事、為行銷活動創造想法或減少時間的官僚作風。消耗業務流程。 這些工具的任何使用都將集中在《衛報》有價值和值得保護的內容:『嚴肅的報導需要時間和精力,仔細揭露事實,追究權力的責任,並質疑想法和論點』。」

  1. 尊重那些創造和擁有內容的人。

「許多生成式AI 模型都是不透明的系統,其訓練材料是在其創建者不知情或未同意的情況下收集的。 當我們授權這些資料在世界各地重複使用時,我們對新聞業的投資就會產生收入。 因此,我們考慮使用的AI工具和模型的原則是:它們考慮許可、透明度和公平獎勵等關鍵問題的程度。 我們對生成式AI 工具的任何使用並不意味著放棄我們對基礎內容的任何權利。」

在我國,目前網路上可以找到2003年8月31日公布的《行政院所屬機關(構)使用生成式AI參考指引(草案)[7]。 在台灣公共電視的官網上,也已經可以看到一份名為「公視基金會AI使用準則」的資料[8] ,內容包括:尊重人的自主、避免造成傷害、公正與共好、透明與問責、體現公共價值等五大原則和15項操作指引。

生成式AI對於新聞專業和新聞倫理可能造成的傷害不容小覷,各新聞傳播媒體或平台都應該儘速訂定AI使用準則。

文/翁秀琪(鏡電視公評人)

(本文轉載自鏡新聞)

[1] https://www.mnews.tw/story/20230824ombuds001

[2] https://www.markreadfintech.com/p/ai

[3] https://opinion.cw.com.tw/blog/profile/52/article/13952 天下獨立評論

[4]https://info.pts.org.tw/數據公開資訊/法規-資安-ai準則/本會-ai-使用準則

[5] https://blog.ap.org/standards-around-generative-ai

[6] https://www.theguardian.com/help/insideguardian/2023/jun/16/the-guardians-approach-to-generative-ai?utm_source=eml&utm_medium=emlf&utm_campaign=MK_SU_SOINewsletterv2Canvas&utm_term=Email_EU&utm_content=variantA

[7] https://join.gov.tw/policies/detail/9f21a1e6-edd0-45e9-8ad6-b92354abb1fa

[8]https://info.pts.org.tw/數據公開資訊/法規-資安-ai準則/本會-ai-使用準則