主要觀點
人工智能驅動的深度偽造的迅速擴散對加密行業構成了結構性威脅,使許多傳統安全措施過時。隨著合成身份的創建變得更便宜、更易獲取,平台必須超越簡單的視覺檢查來保護用戶資產並維護信任。
- 深度偽造內容在2019年至2024年間增長了550%,預示著複雜的人工智能驅動欺詐嘗試大幅增加。
- 傳統驗證正在失效,因為詐騙者利用人工智能生成逼真的面孔、聲音和文件,繞過過時的安全系統。
- 向持續的、行為驗證的轉變對於生存至關重要,因為靜態的入職檢查已不足以防止賬戶盜用。
人工智能驅動的深度偽造的迅速擴散對加密行業構成了結構性威脅,使許多傳統安全措施過時。隨著合成身份的創建變得更便宜、更易獲取,平台必須超越簡單的視覺檢查來保護用戶資產並維護信任。

隨著生成式人工智能使複雜的詐欺變得人人可及,欺騙的經濟學已經發生了根本性變化。在2019年至2024年間,數字平台上的深度偽造內容量增長了550%,為加密生態系統創建了一個新的、可擴展的威脅載體。惡意行為者現在正在利用人工智能在幾分鐘內生成合成但逼真的面孔、聲音,甚至完整的視頻身份,並利用它們繞過曾經看似安全的驗證系統。這種人工智能驅動的詐欺激增速度超過了公眾的安全意識,給投資者帶來了巨大的風險。
當前依賴眨眼和頭部運動等表面視覺線索的安全協議正在失效。現代生成模型可以近乎完美地複製這些微表情,使得僅憑視覺無法區分真實用戶和合成用戶。安全專家表示,下一代防禦必須專注於行為和上下文信號——例如設備模式、打字節奏和響應中的微延遲——這些信號不容易被模仿。這需要從一次性入職檢查轉向在用戶整個旅程中持續驗證的模型,確保身份和意圖得到持續驗證,以防止賬戶被盜。