近日「南韓RPS(Real Person Slash)」風波鬧得沸沸揚揚,要求禁止撰寫男偶像真人BL文的請願,在青瓦台已經超過10萬人次連署。也因為此事,讓大眾注意另一件和性別有關的爭議,12日有網友發出請願,要求處罰合成女藝人身體做色情影片的deepfake換臉技術,短短一天就有近25萬人加入連署。

「deepfake」是一種深度虛擬的換臉AI技術,可以分析並提取人的面孔,轉植至其他影片或圖片上,從而合成大量的非法色情影像。據統計,僅2019年一年,就有高達1萬4678個非法換臉合成影片在韓網上流傳,其中有4成都受害者都是韓國藝人或偶像。

請願者表示,deepfake也屬於一種嚴重的性犯罪,受害女藝人的影片在社交平台上迅速流通,且受到了來自各方的性騷擾、惡評攻擊,對她們產生了嚴重的精神傷害,其中甚至不乏未成年、或剛成年的女偶像。

許多人認為,比起「RPS」只是幻想出的小說,「deepfake」是更值得被抵制的實質性犯罪。此外,因為前者請願是針對「男偶像」,後者則是幫「女藝人」發聲,在韓國已經將兩者間用性別來一分為二,開始戰性別。

但事實上,無論是男性或女性,都同樣的被此種惡劣行為所困擾。

其實在國外deepfake也有同樣猖獗。(圖為基努李維(右)的臉被合成至《阿甘正傳》)   圖:翻攝自TheFakening

目前連署請願人數已達近25萬人。   圖:翻攝自韓網