
全球每五分鐘就有一起深偽技術攻擊事件,
受害者遍佈各地。 在香港,一名金融從業人員在與看似是公司財務長的人視訊通話後,匯出了 2,500 萬美元,但通話中的人其實是假的。 在法國,一名女性被騙,以為自己正在與布萊德·彼特約會。
近 80% 的成年人已無法辨別一支影片的真假。 這是數位詐騙的新現實。 最初的新奇技術,如今已演變成威脅人們建立連結基礎的危機。 當任何人的臉都能變成另一個人,當幾秒鐘的音訊就可用於複製聲音,甚至連視訊通話都不能相信時,我們只能懷著不安的疑問:我們還能相信任何事或任何人嗎?
針對這個存在主義式問題的答案,將決定數位時代人際互動的未來。
深偽技術濫用大爆發
數字呈現了殘酷的現實。 根據《華爾街日報》報導,美國去年有超過 10.5 萬起深偽技術攻擊。 這些攻擊背後的技術如今變得極其容易取得。 過去需要好萊塢級別預算與大量專家的手法,如今只要有設備和網路即可完成。
這類攻擊對所有人一視同仁。 詐騙者利用深度偽造的名人背書,在社群媒體上透過投資詐騙竊取數百萬。 自然災害發生後,詐騙分子利用救援人員的臉孔生成 AI 募款影片傳播。 政治深偽影片瘋狂傳播,呈現候選人從未說過的內容。
金融機構面臨特別嚴峻的危機:與深度偽造相關的詐騙事件在 2023 年暴增 3,000%,每起事件平均造成企業高達 50 萬美元的損失。 數位金融產業同樣遭受重創,AI 深偽技術支持 2024 年 40% 的高額加密貨幣詐騙事件,造成全球損失達 46 億美元。
真人證明如何打擊深偽技術濫用
我們有方式可以降低深偽技術濫用的影響。 真人證明技術提供極具潛力的工具, 能建立互動對象是唯一真人的加密證明,解決問題核心。 真人證明並不判斷內容的真假,而是從源頭確保訊息來源真實存在。
真人證明的應用具有變革性:
- 安全通訊:驗證視訊通話的對象是真人。
- 可信交易:確認重要談話的對象是真人,而非 AI 深偽技術製造的假人。
- 真實內容:讓創作者能以加密方式簽署作品,立即標記內容真偽。
與可被偽造或資料庫可能被駭的系統不同,真人驗證是在保護隱私的加密技術基礎上完成。 沒有中央數據庫,也沒有線上追蹤,只有數學機制證明執行行動的是唯一的真人。
重拾我們的數位未來
World 能協助辨識真人和 AI 合成互動。 World 協議的 Deep Face 技術能運用 World ID 在視訊通話過程中即時進行真人驗證,確保螢幕上的人是確實存在的真人。
深偽技術的興起讓人類社會站上了十字路口。 往其中一條路走,將會進入一個懷疑無止境的世界,不再能相信所見,信任也隨之消失。 往另一條路走,則通往一個人們可以充滿信心互動的未來,知道數位連結和現實世界中的連結一樣真實。
選擇看似明顯,但轉變不會自動發生。 我們需要認識到既有模式(偵測、審查、事後處置)雖然必要,但已經不足。 我們需要對數位基礎架構進行根本性的升級。 真人證明也許能在深偽技術造成更大傷害前,向我們提供預防之道。
了解更多
若想了解 World 的最新消息和其他精彩新訊、公告,請造訪 World 官方網站,或在下方訂閱部落格。
你也可以加入 World 各大社群平台的討論,或閱讀 World 協議白皮書了解計畫的更多重要資訊。
相關文章

Understanding World ·
What is World? FAQs About Proof of Human, Privacy and the Real Human Network

Understanding World ·
Policy ·
The economic benefits of proof of human

Understanding World ·
World ID 常見問題

Understanding World ·