小心自拍照被合成!AI深度造假技術偽造女性裸照 「身體彷彿不屬於自己」
編輯:網編組 | 2020-10-22 15:43
DeepNude的網站已經關閉。(圖/翻攝自@verge Twitter)
日本警視廳在10月初兵分多路,分別在熊本市、兵庫縣與大分縣逮捕3名利用人工智慧「深度造假」(Deep fake)「假A片」,也就是將女藝人的臉部合成AV影像,營造出當事人參與A片演出的假象,其實類似的情況在國外層出不窮,甚至該說相當氾濫!
根據智慧公司Sensity發佈的報告表示,有人在加密通訊軟體Telegram上散佈大量裸女照,但這些照片原本都是有穿衣服的,是用人工智慧技術「造假」。
《英國廣播公司》(BBC)引述Sensity的報告指出,從2019年7月到2020年7月,大約有10萬名女性的照片被製作成裸照並公開分享,根據Sensity表示,造假裸照就是利用了「深度造假」的技術,也就是根據真的模板以電腦生成的仿真圖像或影片,用來創造造假色情影片,不過將不知名的個人照片拿來造假裸照則是近期才發生的事。
日前,一個應用程式「DeepNude」開放下載,用戶可以使用這個App將女性的照片轉換成以假亂真的裸照,一度引發會遭用以假造色情內容從事霸凌。這個App官方團隊視後已表示,不希望從用戶的濫用行為中獲利,將不會再推出這款程式。
回到報告中提到的加密通訊軟體Telegram,其中一個私人群組提供了一個使用人工智慧技術的「網路機器人」,使用者只要送出一張女性照片,幾分鐘後照片上的衣服就會被「移除」;不過經BBC徵求多名女性同意之後,用她們的照片進行測試,卻發現沒有一張造假照看起來像是真的。
報告還指出,這些照片上的女性有部分似乎是未成年,「顯示有部分用戶刻意利用軟體製造假裸照並分享戀童癖內容」。類似的Deep fake軟體讓人只需在彈指之間,上傳一張女性照片後就能產生竄改的裸照,但是按照世界大多數國家目前的法律,除了戀童癖內容可能違法之外,造假的情色內容並不犯法,AI科技發展千里,如不謹慎考慮後果,恐會造成難以磨滅的的傷害。