立法院教育及文化委員會將於6月中旬首度審查《人工智慧基本法》草案,這是我國首度針對人工智慧技術建構專屬立法架構,具有高度象徵意義。草案涵蓋主管機關設置、資料治理原則、數位平權與主權語料庫建設等前瞻議題,顯示台灣有意趕上全球AI治理潮流。然而,若忽略AI技術對詐欺行為的加速效應,以及其對資訊不平等的潛在擴大效應,恐將讓這部專法失去回應社會急迫風險與公平正義的契機。
生成式AI技術迅速普及,從語音仿冒、影像合成到聊天機器人,所產出內容擬真程度已遠超一般人識別能力。近年來,國內外已有多起高擬真仿聲詐騙事件,顯示AI已成為詐騙集團手中降低成本、提升規模與滲透力的利器。這種風險特別衝擊數位素養較低的長者、新住民與移工等弱勢族群,台灣作為電信詐騙的重災區,實無餘裕等災難爆發後再行補漏。
此外,AI技術所帶來的不僅是詐騙風險,也正迅速重塑資訊的流通機制。當AI生成內容成為主流、AI介面主導使用者眼前所見,將可能出現「資訊落差」被進一步固化的現象。懂得使用AI、能辨識真假訊息的群體,將握有更大資訊優勢;而未能掌握工具、缺乏辨識能力的族群,則淪為假訊息與演算法操控下的資訊弱勢。這種由AI加劇的「資訊壁壘」,將不只體現在語言或技術的斷裂,更會影響民主社會中的知情權與參與權,最終導致數位社會的新型階級鴻溝。
因此,《人工智慧基本法》在制度設計上,應更明確納入降低資訊不平等的治理目標。建議在推動數位平權條款時,進一步聚焦於資訊可及性與認知能力的強化,並要求政府在AI教育、公共應用與語言平台建設上投入更多資源,確保弱勢群體不被排除於資訊生態之外。
具體而言,草案應從以下幾方面補強防詐與數位正義並重的架構:
首先,建議比照歐盟《人工智慧法案》,明訂風險分級原則,將語音合成、深偽影像、擬人對話等高風險系統列入管制範疇,要求開發者進行風險評估並通報主管機關,以阻止潛在濫用。
其次,生成式AI所產內容應具備可追溯與可識別性,透過數位浮水印、可信簽章等技術,協助大眾與執法機關辨識真假資訊。同時,對提供開放API或部署生成模型的業者,亦應明訂法律責任門檻,以防技術流向地下市場。
第三,建議政府投資建立「AI詐騙偵測共享平台」,由數位發展部、法務部與警政署共同協作,蒐集本地詐騙語料與異常訊息模式,開發預警機制並開放給金融、電信、媒體等高風險行業使用,提升跨領域的聯防能力。
草案中提出「建構國家級繁體中文語料庫」,實為重要基礎工程。建議進一步將此語料庫作為防詐與資訊教育的資源,納入台灣常見詐騙話術、假訊息語境與社群操弄語言,提升模型識詐與識假能力,避免AI模型過度仰賴國際語料,忽視在地語境與風險特徵。
此外,草案中關於數位平權的規劃應更具實質內涵,尤其針對弱勢族群的資訊障礙。建議增設「AI風險弱勢群體保護條款」,包括多語言反詐平台、簡訊預警機制、社區數位教材與基礎AI識讀課程等,避免科技成為加劇資訊階層的催化劑。
《人工智慧基本法》不應僅止於宣示性法規,更應成為一部能有效回應AI風險、平衡創新與正義的治理法案。在台灣社會深受詐欺犯罪與資訊落差雙重威脅的背景下,此法若能納入具體可執行的防詐與平權架構,將有助於提升公共安全、重建社會信任,也為科技發展注入民主社會應有的價值標準。
AI人工智慧如同一柄雙刃之劍,治理得當,可為防詐打詐與資訊公平的利器;治理失靈,則可能淪為詐欺犯罪與資訊壟斷的工具,對社會信任與民主根基造成深遠侵蝕。台灣正處於科技立法的關鍵轉折點,盼立法院此次審查,能超越部門協調的技術視角,以人民安全、資訊正義與民主永續為核心,打造真正能守護數位未來的AI治理藍圖!
文:范振家/管理學博士
(文章僅代表作者觀點,不代表Newtalk新聞立場。)