澳洲從 2025 年 12 月 10 日起正式啟動全球首例,全國性禁止 16 歲以下兒童使用主流社群媒體帳號的制度。法律要求平台不得讓未滿 16 歲的兒童在 Facebook、Instagram、TikTok、Snapchat、YouTube、Reddit、Twitch、X、Threads、Kick 等 10 大平台擁有帳號,違規者可能面臨上千萬美元的罰款。Snapchat 等公司已宣布會鎖定澳洲未滿 16 歲帳號,部分媒體估計,短時間內可能已有數十萬個帳號被刪除或停用。對其他國家而言,這不只是澳洲內部的監管選擇,而是一場已經啟動、全世界都被迫成為旁觀者與評分者的公共實驗。
這項政策並不是憑空而來,而是源自真實而且嚴重的社會焦慮。澳洲官方與研究機構指出,10 到 15 歲兒少中,大約有 70% 曾在網路上接觸有害內容,包括厭女仇恨、暴力畫面、飲食失調與自傷相關資訊,青少年憂鬱與自殺風險也呈上升趨勢。在這樣的背景下,澳洲政府把社群平台視為需要「加摩擦」的高風險環境,選擇用年齡禁令作為強烈的政策訊號。華盛頓郵報題為 The experiment Down Under 的社論提醒外界,這不只是單一國家的保護機制,而是一場攸關全球網路治理路線的大型實驗。禁令一方面可能讓部分兒少感到被同儕圈排除的孤立感,另一方面又很可能因技術執行與繞道空間而變成容易規避的象徵政策,這些疑慮也都是其他國家在觀察時不得不一起面對的問題。
如果回到問題本身,兒少在社群平台上受到的風險確實存在,而且程度不低。澳洲 eSafety 委員會與其他調查顯示,多數兒少在國小高年級或國中階段就開始長時間使用社群平台,不只接觸仇恨言論與暴力內容,也容易陷入外貌比較、霸凌、性剝削或詐騙等風險。全球研究也觀察到,2010 年之後青少年憂鬱症狀與自傷比例明顯上升,時間軸與智慧型手機和社群媒體普及高度重疊。即使學界對於因果關係仍有爭議,「社群與心理健康」已經成為全球公共政策中無法迴避的急迫議題。從這個角度來看,澳洲不再只依賴勸導,而是試圖用法律為兒少在數位世界畫出一條更清楚的邊界,確實可以被理解為一種強硬但具可理解性的政治選擇,也為其他國家提供了一個鮮明的參考樣本。
真正麻煩的是,執行層面上存在三個巨大的結構性困境,分別是年齡驗證技術的兩難、幾乎可以預期的繞道行為,以及隱私與監控之間的灰色地帶。要讓平台有效阻擋未滿 16 歲使用,勢必需要某種形式的身份或年齡驗證,例如政府數位身份、第三方驗證服務、臉部辨識或行為分析等技術。這些做法本身牽涉大量敏感個資,可能要求每一位使用者都留下更多生物特徵與身分紀錄,和資料最小化與隱私保護的原則發生正面衝突。社會原本是要保護兒少免於傷害,卻有可能在技術實作過程中,把所有人都推向更嚴密的數位監控環境,這一層制度副作用也會被其他國家放在放大鏡底下審視。
繞道行為也幾乎可以事先預測。澳洲媒體實地訪問青少年,禁令上路第一天,多數受訪的 14、15 歲學生仍未被自動登出帳號,有些人準備改用 VPN、父母帳號或較小眾的平台繼續上線。新的年齡限制有可能促使兒少大量移往監管更鬆散甚至更地下化的平台,從主流社群被趕進更黑暗、更難監督的角落,安全風險反而提高。從政策效果來看,如果只是把風險從看得見的地方移往看不見的地方,對整體兒少保護並沒有實質進展。對正在觀望的各國政府來說,這一點尤為關鍵,因為沒有人希望在投入龐大政治成本與行政資源之後,得到的只是形式上漂亮、實質上落空的管理樣板。
在此同時,「誰在看你的臉」也成為隱性代價。為了證明自己不是小孩,所有使用者都必須接受檢查,不論是提交證件、上傳自拍,或者接受某種形式的演算法判讀。這讓不少學者與隱私倡議者警告,全球若跟進類似制度,很可能以保護兒少為名,實際上擴張國家與巨型平台的監控能量,把強制實名與身分驗證變成日常生活的新常態。在社群成癮與心理健康之外,人們將不得不面對另一個同樣棘手的問題,也就是數位生活中可被追蹤與識別的程度要劃到多高的上限。這種以兒少保護為名,卻有可能改寫整體社會監控邊界的做法,更讓澳洲的政策不只關乎澳洲,而是直接觸動其他民主國家在價值與制度上的敏感神經。
從學術與政策研究角度來看,澳洲這套制度被稱為世界首創的自然實驗,許多研究團隊已經準備追蹤政策對兒少心理健康、人際關係與政治參與的影響。單一國家一次性、大規模地改變兒少的數位環境,確實提供了罕見的觀察機會,讓研究者可以比較政策前後在憂鬱、自傷、霸凌、睡眠與學習等指標上的變化。不過,關於社群究竟傷害兒少到什麼程度、哪一種限制最有效,現階段的實證證據仍然有限,很多關聯性並不等於因果關係。當政府把整個世代的成長環境視為自然實驗的對象時,更需要事先說清楚幾件事,包括政策成功要看線上時間的改變,還是要看憂鬱與自傷症狀、校園霸凌與性剝削案件數量是否下降,也必須交代評估時間到底是半年、一年,還是要追蹤整個青春期,並且釐清評估過程是否會開放數據,讓獨立學者與公民團體共同檢驗。如果缺乏這些事前設計與透明機制,自然實驗就很容易淪為政治話術,成效不彰時可以把責任推給科技演變太快,難以歸因,稍有亮點又可以被包裝成理所當然的政績,其他國家在參考時也會更加猶豫。
澳洲的決定不會停留在國界之內,而是迅速產生外溢效應。丹麥政府已經宣布規畫 15 歲以下的社群使用限制,預計 2026 年上路,並研議搭配年齡驗證 app。一些歐洲國家與亞洲國家也在觀望澳洲的成效,思考是否比照辦理。國際媒體報導與社群輿論中,支持者把澳洲視為替全世界父母出頭的國家,期待透過法律給孩子一個比較單純的童年,反對者則把這種立法視為壓縮兒少言論與參與權利的前兆,擔心這會成為大規模監控與審查的入口。換句話說,這場實驗如果被解讀為成功,未來幾年內全球很可能出現一波未滿某歲不得使用社群的立法潮,如果證據顯示成效有限或副作用過大,澳洲也有可能在下一輪政策設計中,變成被拿來作為反面教材的案例,提醒各國重新思考管制與自由之間的界線。
在這樣的國際氛圍下,與其把政策討論侷限在全面開放與全面封鎖的二元對立,不如思考多軌並行的防護路徑。社群平台可以被要求負起更多設計責任,預設關閉對兒少的精準廣告與追蹤,限制演算法把兒少推進極端內容漩渦,嚴格管制陌生人私訊與匿名群組,對直播打賞與各種強烈商業誘因設定更高門檻,這些做法直接針對高風險功能,而不是一刀切封鎖所有帳號。政府可以建立較為透明的數據揭露機制,要求平台定期公布兒少使用時間、被下架內容類型、霸凌與性剝削通報等統計資料,讓研究者與公民社會有能力監督,避免所有風險判斷都被鎖在公司內部,這些也是其他國家可以優先參考的中間路線。
教育與衛生體系也應該強化學校與家庭的數位素養與心理健康支持,單靠技術封鎖很難處理自我認同、同儕壓力與情感需求等深層問題,兒少更需要的是有人陪他們理解、評估與調節自己的線上行為。即使要設定年齡線,也可以採取風險分級,而不是一刀切的總體封鎖,例如限制未滿 16 歲使用匿名聊天室、端對端加密私訊或高風險直播打賞功能,比完全禁止所有社群帳號更符合比例原則,也較不容易造成孤立感與繞道效果。對正在尋找政策平衡點的國家來說,這些精細化的調整,可能比單一的全面禁令更具參考價值。
從澳洲的爭議回頭來看世界,也看台灣,兒少上網風險並不是澳洲獨有,台灣同樣面臨霸凌、詐騙、情色剝削與成癮問題。真正的差別在於,社會選擇的是以教育與自律為主、法律與監理為輔的路線,還是願意走向澳洲式的強力管制。如果要避免落入象徵性立法或者把整個世代當實驗對象的困境,任何新制度在上路之前都必須先說清楚目標、指標與配套,預留檢討與調整機制,並給予公民社會參與監督的空間。
澳洲的實驗未必能一舉解決青少年與社群媒體之間所有的矛盾,但是這個政策已經把一個關鍵問題丟到了全世界面前,那就是在演算法主導的時代,各國政府與社會願意給兒少多少額外的保護,又願意為這些保護付出多少代價。對各國決策者與公民而言,澳洲正在進行的這場高強度公共實驗,既是一面鏡子,也是一次壓力測試。台灣如果要在這場全球討論中找到自己的位置,就必須同時看見兒少需要被保護的一面,以及他們作為數位公民應該擁有的權利,在保護與自由、隱私與安全之間,畫出一條經得起時間檢驗、也經得起比較與學習的線。
楊聰榮(台中科技大學會計資訊系兼任教師,中台灣教授協會理事長,任教於台灣師範大學)
(文章僅代表作者觀點,不代表Newtalk新聞立場。)