蘋果公司5日宣布,將針對美國所有的iPhone用戶進行兒童色情圖像的掃描,旨在能向美國國家失蹤及遭剝削兒童中心(NCMEC)檢舉相關非法行徑。該消息為先前參與簡報說明會的安全專家所透露,並且已被蘋果公司證實。

根據《大紀元》報導,蘋果公司對此說明,此掃描技術為一項美國擴大的兒童保護計劃,一開始只會使用在美國地區,而即將發表的iOS 15更新亦會將其納入。

蘋果公司在聲明中表示:「新技術將允許 Apple 檢測存儲在 iCloud 照片中的已知『兒少性剝削內容』(CSAM)圖像。這將使 Apple 能向美國國家失蹤暨遭剝削兒童中心(NCMEC)舉報這些情況。」

據報導,該技術引發網路安全專家的擔憂,對此蘋果公司聲稱,該系統使用密碼學與人工智慧新技術,並透過Hashing(雜湊)的方式搜尋已知的 CSAM 圖像,並非直接掃描用戶照片,藉此保障使用者隱私。

倘若系統偵測超過一定數量的CSAM 圖像,蘋果公司才會進行人工審查,在確認照片是違法行徑後,再舉報給NCMEC,但其未透露數量門檻為何。蘋果公司補充,該技術僅限於照片而不適用於影片。

NCMEC 主席兼首席執行官約翰‧克拉克(John Clark)5日表示:「蘋果擴大對兒童的保護,改變了遊戲規則。」他進一步指出:「事實上,隱私和兒童保護是可以共存的。」