Trois assureurs majeurs, AIG, Great American et WR Berkley, demandent aux régulateurs américains d'exclure les risques liés à l'IA de leurs polices d'assurance.

Cette initiative, motivée par la nature imprévisible des modèles algorithmiques, pourrait laisser de nombreuses entreprises sans couverture face aux sinistres générés par ces technologies.

Leur objectif : obtenir l'autorisation d'exclure de leurs polices d'assurance professionnelles les responsabilités découlant de l'utilisation de l'intelligence artificielle. Cette démarche trahit une crise de confiance profonde de la part des professionnels dont le métier est précisément de calculer et de tarifer le risque.

Le problème de la "boîte noire"

Le cœur de l’anxiété des assureurs réside dans la nature imprévisible des modèles d’IA modernes. Un souscripteur a décrit leurs résultats comme étant "beaucoup trop une boîte noire" pour être évalués avec précision.

Contrairement aux risques traditionnels, même complexes comme les cyberattaques, les systèmes d'IA peuvent générer des hallucinations ou des erreurs aux conséquences en cascade.

intelligence artificielle desinformation illustration ia

Ce manque de transparence rend presque impossible la quantification des sinistres potentiels, qui pourraient se chiffrer en milliards de dollars. Pour les assureurs, il s’agit d’une inconnue fondamentale qui remet en cause leur modèle économique.

Quand la théorie devient une coûteuse réalité

Cette méfiance n’est plus théorique, elle repose sur des incidents très médiatisés qui ont démontré la capacité de l'IA à générer un chaos coûteux. L'outil AI Overview de Google a, par exemple, faussement accusé une entreprise du secteur solaire de démêlés judiciaires, provoquant un procès à 110 millions de dollars. Plus proche de nous, Air Canada a été contrainte par un tribunal d'honorer une réduction totalement inventée par son propre chatbot.

intelligence artificielle modele economique illustration ia

Le cas le plus spectaculaire reste sans doute celui de la société d'ingénierie Arup, victime d'une fraude de 25 millions de dollars. Les escrocs ont utilisé une voix de dirigeant clonée numériquement lors d'une visioconférence qui semblait parfaitement légitime. Ces exemples illustrent les dommages financiers et réputationnels bien réels que l'IA peut engendrer.

Le véritable cauchemar : le risque systémique

Si les cas individuels sont alarmants, la véritable crainte des assureurs est le risque systémique. De très nombreuses entreprises s'appuient aujourd'hui sur les mêmes modèles fondamentaux développés par une poignée de géants technologiques comme OpenAI, Google ou Microsoft.

Une seule faille ou un dysfonctionnement dans l'un de ces modèles massivement déployés pourrait déclencher des milliers, voire des dizaines de milliers de sinistres simultanément dans de multiples secteurs.

Un dirigeant de la société de conseil Aon a résumé la situation de manière frappante : le secteur peut absorber une perte de 400 millions de dollars touchant une seule entreprise, mais il ne peut pas survivre à 10 000 pertes simultanées provoquées par l'erreur d'un unique agent conversationnel. Cette perspective d'un sinistre à grande échelle change radicalement la donne.

Cette initiative des assureurs crée un paradoxe pour le monde économique. La technologie censée améliorer l'efficacité pourrait finalement introduire un profil de risque inassurable.

Les entreprises pourraient bientôt devoir faire un choix cornélien : adopter l'IA ou conserver une couverture d'assurance complète. Pendant que les régulateurs examinent ces demandes, l'avenir du déploiement de l'IA à grande échelle est suspendu à une question essentielle sur la responsabilité et le véritable coût de l'innovation.