Une startup parisienne fondée par un chercheur ayant réussi à compromettre des modèles d'IA majeurs avec un simple prompt a levé 11 millions de dollars pour aider les entreprises à contrôler leurs propres systèmes d'IA.
Une startup parisienne fondée par un chercheur ayant réussi à compromettre des modèles d'IA majeurs avec un simple prompt a levé 11 millions de dollars pour aider les entreprises à contrôler leurs propres systèmes d'IA.

(P1) La startup française de cybersécurité White Circle a levé 11 millions de dollars lors d'un tour de table en amorçage pour étendre sa plateforme de contrôle de l'IA, une nouvelle couche de sécurité pour les entreprises déployant de grands modèles de langage. Ce financement intervient alors que les entreprises sont confrontées à des risques dépassant les filtres de sécurité généraux intégrés par les fournisseurs de modèles, tels que les fuites de données, les hallucinations et les attaques par injection de prompts.
(P2) « Les jailbreaks ne sont qu'une partie du problème », a déclaré Denis Shilov, fondateur et PDG de White Circle, à Fortune. « Tout comme les humains peuvent mal se comporter, les modèles le peuvent aussi. Nous imposons en fait des comportements. »
(P3) Ce tour de table a vu la participation d'une liste de leaders de l'industrie de l'IA, signalant une forte confiance dans l'approche de l'entreprise. Parmi les soutiens figurent Romain Huet, responsable de l'expérience développeur chez OpenAI, Durk Kingma d'Anthropic, Guillaume Lample, cofondateur de Mistral, et Thomas Wolf, cofondateur de Hugging Face. L'entreprise utilisera ces fonds pour recruter de nouveaux talents, accélérer le développement de produits et élargir sa base de clients aux États-Unis, au Royaume-Uni et en Europe.
(P4) Le besoin d'une couche de contrôle dédiée devient plus urgent à mesure que les entreprises passent de simples chatbots à des agents d'IA autonomes capables d'effectuer des actions comme accéder à des fichiers ou émettre des remboursements. La plateforme de White Circle se situe entre les utilisateurs d'une entreprise et ses modèles d'IA, surveillant toutes les entrées et sorties en temps réel pour appliquer des politiques personnalisées, une fonction que les fournisseurs de modèles eux-mêmes ont des incitations mitigées à perfectionner.
La startup parisienne est née des recherches de Shilov fin 2024, lorsqu'il a développé un prompt de jailbreak universel capable de contourner les garde-fous de sécurité de tous les principaux modèles d'IA. Après que ses découvertes sont devenues virales sur X, de grands laboratoires d'IA comme Anthropic l'ont invité à tester leurs modèles, le convainquant que les entreprises avaient besoin de plus que de meilleurs modèles — elles avaient besoin de meilleurs contrôles.
Le logiciel de White Circle est conçu pour intercepter un large éventail de comportements inappropriés des modèles. Il peut bloquer la tentative d'un utilisateur de générer un logiciel malveillant, signaler lorsqu'un modèle hallucine et promet un remboursement non autorisé à un client, ou empêcher un agent d'IA de divulguer des données financières sensibles. La plateforme a déjà traité plus d'un milliard de requêtes API et est utilisée par la startup Lovable ainsi que par plusieurs entreprises de la fintech et du secteur juridique, bien que les chiffres de revenus spécifiques n'aient pas été divulgués.
Pour renforcer sa crédibilité en tant qu'arbitre indépendant, la branche recherche de White Circle a publié « KillBench », une étude qui a mené plus d'un million d'expériences sur 15 modèles d'IA provenant de fournisseurs tels qu'OpenAI, Google et xAI. L'étude a révélé des biais cachés qui émergent dans des scénarios à enjeux élevés, mettant en lumière des risques qui ne sont pas apparents lors d'une utilisation ordinaire.
Cet investissement est un pari fort sur l'économie des « pioches et des pelles » qui se développe autour du secteur de l'IA. La participation de dirigeants de laboratoires d'IA concurrents comme OpenAI, Anthropic et Mistral suggère un large consensus sur le fait qu'une couche d'application tierce est un composant nécessaire de la pile IA en entreprise. Cela pointe vers l'émergence d'une nouvelle catégorie de marché critique pour les investisseurs axés sur l'infrastructure et la sécurité de l'IA.
Cet article est uniquement à titre informatif et ne constitue pas un conseil en investissement.