近期,一名男子連續兩次利用台北捷運的「AI 客服」系統,惡意謊報車廂內發生「殺人、失火」等重大維安事件,引發社會大眾恐慌,最終遭檢方依恐嚇公眾罪起訴。這起看似無聊惡作劇的烏龍事件,實則精準戳破了台灣在推動「智慧城市」與「AI 便民服務」時,長期被忽視的系統性盲點。

首先,AI 客服的「去人化」特性,意外降低了犯罪的心理門檻。

過去,民眾若要報假案,通常必須親自撥打 110 或客服專線,面對真人對答時的語氣檢視與心理壓力,往往能勸退不少惡作劇者。然而,當報案管道變成冷冰冰的文字輸入框,加上對 AI 系統的匿名性存在錯誤幻想,有心人士便容易產生「只是在跟機器人玩遊戲」的錯覺。這種隱身於螢幕後的僥倖心態,讓攸關大眾安全的通報系統,淪為個人發洩情緒或尋求刺激的玩具。

其次,系統設計缺乏「急用與一般」的分流防護機制。

AI 客服的初衷是為了解決大量且重複性的票務、路線查詢等民生問題,以減輕真人客服的負擔。然而,當涉及「殺人、縱火」這類最高級別的公共安全通報時,若系統照單全收並直接觸發警報機制,而沒有設計相對應的「身份驗證」或「真人迅速介入核實」的防呆機制,不僅會大幅消耗寶貴的警政與捷運維安量能,更可能在真正的危機發生時引發「狼來了」的效應。

科技始終來自於人性,但也必須防範人性的惡意。

針對此次事件,相關單位在事後將犯嫌移送法辦固然達到了殺雞儆猴的效果,但系統面的補漏才是治本之道。

我們呼籲相關單位應立即檢視並升級各類大眾運輸系統的 AI 客服機制:

1. 建立分級通報機制: 針對涉及重大治安、公安的關鍵字,系統應強制要求輸入實名資訊(如手機號碼驗證),或強制轉接真人客服進行語音確認,增加惡作劇的難度。

2. 強化溯源與黑名單技術: 完善系統後端的 IP 追蹤與異常行為分析,當同一來源短時間內頻繁發送極端訊息時,AI 應具備自動示警並攔截的防禦能力。

3. 加強法治宣導: 政府應藉此案例擴大宣導,讓民眾清楚認知「向 AI 報假案等同於向警察報假案」,在數位空間的違法行為同樣必須負起沉重的法律代價。

捷運是雙北市民的交通命脈,容不下任何一絲恐慌與動盪。我們樂見 AI 技術為生活帶來便利,但唯有建立在「安全與防弊」的基礎之上,科技才能真正成為保護社會的防護網,而非有心人士輕易操弄的恐慌製造機。

(文章僅代表作者觀點,不代表Newtalk新聞立場。)