人工智慧(AI)相關的產業近年來蓬勃發展,臺灣作為AI相關產業蓬勃發展之地,但相關法律卻僅在2025年8月28日通過《人工智慧基本法》草案,對比鄰近的日本(2025年5月28日通過《AI促進法》)和韓國(2024年12月通過《AI基本法》),臺灣進度偏緩慢。本文會比較臺灣的草案和日、韓、歐盟的差異,提出臺灣在法規上還有什麼可以加強的。
臺灣的草案比較像是提供產業發展框架,尚未在法律中明訂禁止行為、罰則等等,以鼓勵創新為原則,訂立了關於基本價值、治理原則及施政方針。
目前有最完整的歐盟的人工智慧法,已經制定了「四級風險架構」作為發展風險的分類(不可接受、高風險、有限風險、最低風險),也在法案中寫道不可以將人工智慧用於有害操作、欺騙、剝削、社會評分、無差別擷取臉部影像、情緒辨識、即時遠端生物辨識。
除此之外,歐盟也有對提供高風險人工智慧的供應者,建立一套監管的措施。其中要求供應者需要有相關的風險管理系統、資料需要準確及透明、主動向使用者提供資訊、保留紀錄並提供技術文件。
可以看到歐盟相當注重倫理議題和人人的自由平等,畢竟人工智慧在發展過程中,可能會因為訓練資料不足帶來潛在的偏見與歧視。
日本的《AI促進法》中,寫到了專門監督、制定相關政策的管理機構,集中管理所有與AI相關的事務。對比臺灣將《人工智慧基本法》草案先由數發部研議、又轉交國科會負責,臺灣未來可能會出現主管機關不明確的情況。
南韓在《AI基本法》中,提到了與日本相同的管理機構,值得注意的是,南韓要外國在南韓發展,需要設置代表人負責。臺灣未來可以考慮要求設置在臺代表人,對於外國供應商在臺灣發生的問題也才能更有效率的解決。
總結來說,台灣可以針對人權的部分設置風險等級並建立監管機制,也可以針對未來的發展設立權責機構(或是直接明定主管機管為數發部),另外因為台灣有許多的跨國合作機會,要求外國公司設立在台的代表人可以更方便的管理。
(文章僅代表作者觀點,不代表Newtalk新聞立場。)