Résumé
L'industrie mondiale de l'assurance prend activement ses distances avec les risques associés à l'intelligence artificielle, les principaux assureurs recherchant l'approbation réglementaire pour exclure les erreurs et les fautes liées à l'IA des polices d'assurance responsabilité civile des entreprises. Ce retrait stratégique, mené par des entreprises telles qu'AIG et W.R. Berkley, est une réaction à la nature imprévisible et potentiellement systémique des responsabilités liées à l'IA. Les récents cas très médiatisés impliquant des pertes financières importantes et des atteintes à la réputation ont souligné l'immense risque, forçant une réévaluation de l'assurabilité et créant un vide de couverture significatif pour les entreprises de plus en plus dépendantes des technologies d'IA.
L'événement en détail
Les principaux assureurs s'efforcent officiellement d'isoler les périls liés à l'IA. W.R. Berkley, par exemple, a introduit une exclusion d'IA "Absolue" dans ses lignes spécialisées, y compris la couverture Responsabilité des administrateurs et dirigeants (D&O), Erreurs et omissions (E&O) et Responsabilité fiduciaire. Cette clause vise largement à refuser la couverture pour tout dommage découlant de "l'utilisation, du déploiement ou du développement réel ou allégué de l'intelligence artificielle".
Ce changement n'est pas théorique ; c'est une réponse directe à des défaillances tangibles et coûteuses de l'IA :
- Diffamation et calomnie : Google fait face à un procès de 110 millions de dollars découlant de fausses accusations légales générées par son IA, établissant un précédent pour la diffamation pilotée par l'IA.
- Défaillances opérationnelles : Air Canada a été légalement contraint d'honorer des réductions offertes de manière incorrecte par son chatbot de service client, démontrant une responsabilité financière directe en cas d'erreurs d'IA.
- Fraude sophistiquée : La société d'ingénierie Arup a subi une perte de 25 millions de dollars après que des fraudeurs ont utilisé la technologie de clonage vocal par IA pour se faire passer pour un directeur de l'entreprise et autoriser des transactions illicites.
Implications pour le marché
Le retrait de l'industrie de l'assurance constitue un obstacle majeur à l'adoption de l'IA par les entreprises. Sans un filet de sécurité financier pour atténuer les risques, les entreprises pourraient devenir plus conservatrices dans le déploiement de solutions d'IA, ralentissant potentiellement l'innovation et le développement concurrentiel. Cela crée une catégorie de risques non assurés que les directeurs des risques doivent désormais gérer par d'autres moyens.
Cependant, ce vide favorise également un nouveau marché pour la gestion spécialisée des risques. Des startups comme Armilla et l'Artificial Intelligence Underwriting Company (AIUC) interviennent pour combler le vide. Ces entreprises développent de nouvelles normes et outils de souscription spécifiquement conçus pour évaluer les modèles d'IA en termes de vulnérabilités, visant à créer un marché de l'assurance viable pour ces risques émergents.
Selon Rajiv Dattani, co-fondateur de l'AIUC, la décision des assureurs traditionnels est largement motivée par une "peur de l'inconnu". Il suggère que l'assurance peut servir de "solution intermédiaire élégante" pour la gouvernance de l'IA, offrant une couche de surveillance tierce plus agile que la réglementation gouvernementale. Dattani soutient que les engagements volontaires des entreprises sont insuffisants pour gérer les risques de l'IA, positionnant la souscription spécialisée comme un élément essentiel de l'écosystème.
Contexte plus large
Cette tendance se développe à mesure que les défis juridiques contre les fournisseurs d'IA se multiplient. Les grandes entreprises technologiques, notamment Google, Meta et OpenAI, sont toutes confrontées à des poursuites liées à la diffamation et à la désinformation générées par leurs grands modèles de langage. La réponse de l'industrie de l'assurance est une formalisation financière claire de ce risque. En excluant explicitement l'IA, les assureurs la traitent comme une catégorie distincte et à haut risque, un peu comme les cyberattaques ou le terrorisme, qui nécessitent des polices spécialisées. Ce recalibrage à l'échelle de l'industrie signale un nouveau chapitre dans la gestion des risques d'entreprise, où la compréhension et l'atténuation des responsabilités spécifiques à l'IA deviennent un aspect non négociable de la stratégie commerciale.