主要观点
人工智能驱动的深度伪造的迅速扩散对加密行业构成了结构性威胁,使许多传统安全措施过时。随着合成身份的创建变得更便宜、更易获取,平台必须超越简单的视觉检查来保护用户资产并维护信任。
- 深度伪造内容在2019年至2024年间增长了550%,预示着复杂的人工智能驱动欺诈尝试大幅增加。
- 传统验证正在失效,因为诈骗者利用人工智能生成逼真的面孔、声音和文件,绕过过时的安全系统。
- 向持续的、行为验证的转变对于生存至关重要,因为静态的入职检查已不足以防止账户盗用。
人工智能驱动的深度伪造的迅速扩散对加密行业构成了结构性威胁,使许多传统安全措施过时。随着合成身份的创建变得更便宜、更易获取,平台必须超越简单的视觉检查来保护用户资产并维护信任。

随着生成式人工智能使复杂的欺诈变得人人可及,欺骗的经济学已经发生了根本性变化。在2019年至2024年间,数字平台上的深度伪造内容量增长了550%,为加密生态系统创建了一个新的、可扩展的威胁载体。恶意行为者现在正在利用人工智能在几分钟内生成合成但逼真的面孔、声音,甚至完整的视频身份,并利用它们绕过曾经看似安全的验证系统。这种人工智能驱动的欺诈激增速度超过了公众的安全意识,给投资者带来了巨大的风险。
当前依赖眨眼和头部运动等表面视觉线索的安全协议正在失效。现代生成模型可以近乎完美地复制这些微表情,使得仅凭视觉无法区分真实用户和合成用户。安全专家表示,下一代防御必须专注于行为和上下文信号——例如设备模式、打字节奏和响应中的微延迟——这些信号不容易被模仿。这需要从一次性入职检查转向在用户整个旅程中持续验证的模型,确保身份和意图得到持续验证,以防止账户被盗。