AI語言科技:政治控制之鎮壓工具
人工智慧本應是促進溝通與理解的技術,但在中國,AI卻被重新定義為國家控制與政治鎮壓的利器。近期多項國際研究與媒體揭露,中共正系統性開發維吾爾語、藏語、蒙古語及針對中國朝鮮族的韓語AI模型,其核心目的並非文化保存或公共服務,而是更有效率地監控、預測並壓制少數民族社群。這不僅是科技發展的倫理倒退,更是對人權與法治的根本挑戰。
語言武器化:預設為風險族群之少數民族
大利亞戰略政策研究所(ASPI)指出,中國安全與政法體系已將AI深度嵌入社會治理架構,尤其針對被視為「不穩定因素」的族群,發展專屬語言模型與多模態監控系統。這些系統能即時分析少數民族語言的語音、文字與情緒,結合臉部辨識、行為追蹤與大數據評分,形成人工智慧驅動的「預測性治理」。問題不在於技術本身,而在於其使用邏輯。當某一族群僅因語言、文化或宗教背景,就被系統性納入高風險監控對象,國家權力便已跨越合理治理的界線。語言不再是文化載體,而成了被演算法標記與懲罰的證據。這種做法,使少數民族在日常生活中即被視為潛在的「問題製造者」,其言論自由、隱私權與人身安全自然首當其衝。
「哨兵國度」現實化:高科技流放的形成
美國克雷蒙特麥肯納學院政府系講座教授裴敏欣在《哨兵國度:中國如何透過監控維繫獨裁政權》中指出,中共政權的穩定並非建立在合法性或公共信任之上,而是仰賴無所不在的監控體系。AI的全面導入,使這個「哨兵國度」進一步升級,從人力監控走向自動化、常態化與不可見的控制。對少數民族而言,不一定需要鐵絲網與圍牆,「高科技流放地」的形成,卻能透過演算法限制行動、壓縮選擇、消滅匿名性。人在原地,卻被制度性隔離;生活如常,卻無時不在被審視。這種監控暴力不必頻繁動用實體鎮壓,便足以製造長期的恐懼與自我審查,其傷害更為深層而持久。
無節制的法治界線已逐步侵蝕人權
真正的法治,從來不只是國家是否「依法行事」,而在於權力是否受到實質限制。法律必須師出有名,執行必須行為有度。然而,中共以國家安全、反恐與維穩之名,對少數民族施加高度不對稱的監控與處置,實質上已構成對人權的恣意干預。當AI成為黑箱決策的依據、當監控缺乏透明監督、當特定族群被制度性鎖定為治理對象,這樣的體制不僅背離法治精神,也侵蝕政權自身的正當性。歷史一再證明,靠全面監控維繫的穩定,終究是脆弱的;被長期壓抑的群體,並不會因科技而消失,只會累積更深的不信任與對抗。AI不該是獨裁的防腐劑,更不該成為迫害少數民族的工具。一個政權若持續以高科技包裝專斷統治,忽視人權與法治的底線,最終面對的,將不只是國際譴責,而是來自其社會內部、無可迴避的反噬。
(文章僅代表作者觀點,不代表Newtalk新聞立場。)