相對於把一般照片解除封印的做法,最近竟然有人反其道而行,透過這樣的技術來把一些裸露的照片「生成」原本沒有的布料 – 甚至還有人將這個技術製成了工具網站。繼續閱讀有人反其道而行利用 AI 幫裸露照片穿上衣服,反而爆紅報導內文。
▲圖片來源:DignifAI
有人反其道而行利用 AI 幫裸露照片穿上衣服,反而爆紅
話先說在前頭,我們非常尊重女性的自主權與表現自我的自由。另外也註明一下,其實這個報導中這個「DignifAI」修改圖片的對象,也不是都只有女性而已。本篇也只是想給讀者知道,原來有人會拿 AI 來這樣應用。也同時點出了相關人士對於此技術的理念的質疑點。並且希望大家在看到網路上出現看似有趣的圖文分享的時候,可能也要稍稍思考其背後可能想要傳達的理念是否有問題。
https://twitter.com/JackPosobiec/status/1753416551066181672
從以往包括 Deepfake 乃至於各種新科技推出之後,其實都不免會有被拿來做為「色色」也就是偏向於探索成人向的用途。AI 圖片生成技術自然也逃不過這樣的「嘗試」。
妙的是,相對於把一般照片「解除封印」的做法(你懂的),想不到最近竟然有人反其道而行,透過這樣的技術來把一些裸露的照片「生成」加回照片中本來沒有的布料 – 甚至還有人將這個技術製成了工具網站。
直接在 Twitter / X 社群平台上分享許多包括男女性(甚至是卡通人物也沒被放過)的裸露照片,被 AI 給改為「包緊緊」修改照片的 DignifAI。就他分享的照片裡,有不少性感照片被改成了穿著一般衣服的新版本。
▲圖片來源:DignifAI
很妙的是,就連 Elon Musk 被拍到游泳的上半身裸露照片,也被 AI 改成了身著燕尾服的版本。而且他的目標還不僅限於性感照片而已。DignifAI 的範例中,甚至還出現了海綿寶寶卡通中的派大星,從身穿性感網襪被改成裙子的前後對照圖。也是給人相當搞笑的感覺。
不過後續,有不少人有越看越不對勁的感覺。甚至還引起了媒體嚴正的抨擊,認為這樣的工具與改圖行為,其實藏有其他的目的性甚至是歧視與不尊重自我表現的意味在其中。
https://twitter.com/DignifAI/status/1755023678515937290
畢竟若是只看網站內提到只是「For fun」會覺得這一切只是開開玩笑而已。但以這個帳號名稱所提到的「Dignif(尊嚴、高貴)」關鍵字,再加上網站內不僅直接提到「女性」更以「degenerate」也就是墮落的、頹廢的、墮落的人來描述這些改圖的對象。以及此 AI 甚至連刺青都有包含的跡象來看。則是都的確有不太對勁的感覺。
https://twitter.com/DignifAI/status/1754381222464168359
是說,其實也有人透過留言對媒體抨擊的文章表達偏向於不以為然與可能想得太多的意見。甚至覺得很多照片其實好像被加上了衣服之後變得更好。
但這裡必須要講,美醜可能真的是個人主觀的事情。不過就目前已知的目的性以及相關的字眼來看,相信大家也多少能感受到其目的並沒有那麼單純的感覺。
只能說,這種利用 AI 來改圖的方向的確新奇,而且也的確很難讓人覺得這些圖片有觸犯到什麼法規之類的。但也許也就是因為這樣,更讓人覺得這種可能在偷渡一些概念的做法,也需要被提出來進一步檢視。只希望這些被質疑的點如果並不是真的在暗示對女性的不尊重和對其價值的輕視,真的應該要在後續透過修正字眼等方式來避免疑慮了。
經由|