IA: le gouvernement américain juge "inacceptable" le risque que lui fait courir Anthropic
Le gouvernement américain a invoqué mardi le risque "inacceptable" que lui fait courir la start-up d'intelligence artificielle (IA) Anthropic comme justification à son placement sur la liste des entreprises à risque, avant que ce groupe technologique ne l'attaque en justice.
"Le DoW (département de la Défense, récemment rebaptisé "Department of War", département de la Guerre, NDLR) a commencé à craindre que le fait de permettre à Anthropic de continuer à accéder à son infrastructure technique et opérationnelle de conduite des opérations militaires n'introduise un risque inacceptable dans ses chaînes d'approvisionnement", met en avant la défense de l'administration américaine dans un document judiciaire, consulté par l'AFP, qui fait suite à une plainte d'Anthropic.
"Les systèmes d'IA sont extrêmement vulnérables à la manipulation, et Anthropic pourrait tenter de désactiver sa technologie ou de modifier de manière préventive le comportement de son modèle avant ou pendant des opérations de combat en cours, si Anthropic — à sa seule discrétion — estimait que ses +lignes rouges+ d'entreprise étaient franchies", poursuit ce document déposé dans un tribunal californien et publié mardi.
"Le DoW a jugé qu'il s'agissait là d'un risque inacceptable pour la sécurité nationale", selon ce document.
La société Anthropic a assigné en justice début mars plusieurs entités du gouvernement américain pour obtenir la levée de sanctions qu'elle juge excessives, en particulier son inscription dans la liste gouvernementale de sociétés présentant un "risque de sécurité nationale pour les approvisionnements".
Le président américain Donald Trump, à l'origine de la décision, entendait ainsi sanctionner le concurrent d'OpenAI pour son refus de voir ses modèles d'IA servir à des activités de surveillance de masse des populations ou à l'automatisation d'attaques mortelles par l'armée américaine.
La classification "à risque" empêche théoriquement tout autre fournisseur de l'Etat fédéral américain de passer des contrats avec l'entreprise concernée.
Selon plusieurs médias, les modèles d'IA d'Anthropic ont été utilisés lors de la préparation de l'offensive américano-israélienne contre l'Iran.
D'autres grandes entreprises technologiques américaines, telles que Microsoft, qui utilise le modèle Claude d'Anthropic tout en fournissant l'armée américaine, ont pris la défense de cette start-up spécialisée dans l'IA.
"Le comportement d'Anthropic a, de manière plus générale, amené le ministère à se demander si cette entreprise constituait un partenaire de confiance avec lequel il était disposé à conclure un contrat dans ce domaine extrêmement sensible", a aussi indiqué la défense du gouvernement américain dans le document.
F.Schneider--HHA