AI換臉真假難辨?六招辨別深偽(Deepfake)詐騙影片

「深偽」(Deepfake) 一詞是深度學習 (deep learning) 與偽造 (fake) 的合體,由 Reddit 的一名使用者在 2017 年所創。深偽可以是一個模仿某人外貌或聲音的偽造照片、影片或錄音,其目的是要用於欺騙或娛樂大眾。在先進的機器學習加持下,深偽有時非常逼真。過去,深偽主要是在社群媒體上作為娛樂用途,但其濫用的潛力很快就被人發現。現在,深偽已成為隱私、安全及資訊傳播的一大威脅。趨勢科技在 2024 年 6 月做了一份研究指出,有 71% 的人對於深偽抱持負面的看法,相信任人們製作深偽的首要原因就是為了詐騙1


深偽是如何製作的?


製作深偽需要用到一種叫做「生成對抗網路」(Generative Adversarial Network,簡稱 GAN) 的高階電腦程式來製作逼真的影像。主要分成四大步驟:

繼續閱讀

你我都可能成為像素裡的人質!揭開 AI 名人換臉術與「AI 皮條客」的新型犯罪

Deepfake 罪犯眼中的「頂級獵物」不只是A咖 名人,當心公開影像被製作成AI深偽色情進行勒索

圖片來源:iStock

在這個AI技術爆炸性發展的時代,你很可能已經遇過這種驚心動魄的場景:當你悠閒地滑著社群媒體或漫遊於網際網路時,螢幕上突然跳出一段令人瞠目結舌的影片—赫然是那位你崇拜已久的巨星,正陷入一個尷尬至極的處境!

更令人咋舌的是,下一秒,你看到的可能是同一位名人,神采奕奕地代言著某款新產品,或是熱情洋溢地邀請你加入一個”千載難逢”的投資良機。影片中的一舉一動、一顰一笑,無不栩栩如生,彷彿那位偶像就在眼前,直接與你對話。

然而,當驚訝退去,理智漸漸回籠時,你內心泛起一絲異樣的感覺—這影片雖然真實得可怕,卻又微妙地透露出某種說不出的違和感。在AI主宰的數位叢林中,你正面臨著一個棘手的難題:眼見不一定為真,真相往往隱藏於細微之處。

什麼是 AI 名人深偽與 AI 色情 ?



那個令你目瞪口呆的場景嗎?那正是 AI 名人深偽(AI Celebrity Deepfakes)與 AI 色情(AI Porn)肆虐的寫照,一個充滿危機與隱憂的數位新世界。隨著 AI 深偽技術(Deepfake)的驚人進步,創作者們如今已能打造出逼真到匪夷所思的假影片和假照片。其中最令人不安的手法,就是將某人的「臉」巧妙地嫁接到另一人的「身體」上,彷彿那個人真的在做某件事,但實際上一切都是虛幻的幻象。

這項技術模糊了現實與虛構的界線,讓人難辨真偽。深偽技術初衷是為了娛樂,如製作電影特效,但如今已淪為不法之徒的工具。受害者遍及各階層,從光鮮亮麗的明星、呼風喚雨的企業執行長,到天真無邪的兒童,再到芸芸眾生的普通女性,所有人都可能成為這場數位暴力中的犧牲品,被強迫成為色情內容的主角。

繼續閱讀