Les assureurs refusent de couvrir les risques liés à l’IA, craignant des sinistres massifs
Que se passe-t-il quand le logiciel que tout le monde s’empresse d’adopter devient trop risqué pour être assuré ? Selon des informations du Financial Times, nous sommes sur le point de le découvrir. De grandes compagnies d’assurance, dont AIG, Great American et WR Berkley, demandent déjà aux autorités américaines l’autorisation d’exclure des garanties classiques les responsabilités liées à l’intelligence artificielle. Un assureur explique au journal que les sorties des modèles d’IA sont « trop une boîte noire » pour pouvoir être évaluées avec confiance. L’industrie a de bonnes raisons d’être inquiète. En mars, l’IA de Google a accusé à tort une entreprise solaire de problèmes juridiques, déclenchant une poursuite de 110 millions de dollars. L’an dernier, Air Canada a dû honorer une réduction de tarif inventée par son chatbot. Et en 2023, des fraudeurs ont utilisé une version numériquement clonée d’un dirigeant senior pour escroquer 25 millions de dollars à Arup, une entreprise britannique spécialisée dans l’ingénierie, lors d’un appel vidéo qui semblait parfaitement authentique. Ce qui effraie vraiment les assureurs, ce n’est pas un seul sinistre colossal, mais le risque systémique d’un grand nombre de réclamations simultanées. Imaginez un modèle d’IA largement utilisé qui commet une erreur — non pas dans une seule entreprise, mais dans des milliers d’organisations à la fois. Comme le souligne un cadre d’Aon : les assureurs peuvent absorber une perte de 400 millions de dollars pour une seule entreprise. Mais ils ne peuvent pas faire face à une catastrophe causée par une IA agente qui entraîne 10 000 pertes en même temps. Ce genre de scénario pourrait mettre à mal tout le système d’assurance.
