Tech&Co Intelligence artificielle
Intelligence artificielle

"Nous sommes très proches": un général américain fait confiance à ChatGPT pour prendre des décisions militaires

Le général William "Hank" Taylor, le 16 août 2021.

Le général William "Hank" Taylor, le 16 août 2021. - US Department of War / Lisa Ferdinando, DOD

Le général William "Hank" Taylor, le commandant en chef de l'armée américaine en Corée du Sud, s'appuie sur ChatGPT pour affiner ses décisions dans sa vie personnelle... mais aussi professionnelle.

Un général qui prend ses décisions militaires grâce à une intelligence artificielle (IA). Non, ce n'est pas le scénario d'un remake de Dr Folamour. Comme le rapporte Business Insider, le général William "Hank" Taylor, le commandant en chef de l'armée américaine en Corée du Sud, a assuré utiliser ChatGPT pour ses prises de décision.

"ChatGPT et moi sommes très proches ces derniers temps. (...) J'essaie de construire des modèles pour nous aider tous", a-t-il déclaré lors d'une table ronde avec les médias, lundi 13 octobre.

William "Hank" Taylor n'utilise pas l'outil d'OpenAI sur le terrain. Il préfère miser sur les chatbots pour affiner ses prises de décisions, aussi bien ses tâches professionnelles que personnelles. Son objectif? Développer des modèles d’IA qui amélioreront le processus de décision qui affecte les milliers de soldats sous son commandement.

L'IA au service de l'armée

"En tant que commandant, je veux prendre de meilleures décisions", a-t-il ajouté. "Je veux m'assurer de prendre des décisions au bon moment pour avoir l'avantage", insiste le général, qui demande à ce que soient construits des "modèles pour (les) aider tous."

L'armée américaine tente petit à petit d'intégrer l'IA dans les drones, les technologies de combat ou encore les avions. Une intelligence artificielle a par exemple piloté un F-16 modifié lors d'un combat aérien simulé.

Mais l'utilisation militaire de l'IA ne se limite pas aux plateformes de simulation et aux tests. En juin dernier, le gouvernement américain a signé un contrat de 200 millions de dollars avec OpenAI pour développer des outils d’intelligence artificielle destinés à l’armée et à la sécurité nationale.

Les forces d'opérations spéciales, par exemple, ont ainsi cherché à "réduire la charge cognitive" des agents grâce à l'utilisation de l'IA. Les algorithmes les aident ainsi pour la paperasse, les rapports de situation, la gestion des demandes d'approvisionnement et de logistique et d'autres tâches administratives. Les chatbots ont également été utilisés pour améliorer les fonctions de recherche ou pour aider les employés transférés d'un poste à un autre à se mettre rapidement à niveau.

Un engouement qui n'échappe pas aux entreprises qui tentent de se lancer sur ce terrain. Cette semaine, la start-up Anduril, fondée par Palmer Luckey, a dévoilé EagleEye, un casque militaire dopé à l'IA. Il permet à l'armée américaine de bénéficier de puissants outils de reconnaissance et de planification de mission, ainsi que des lunettes utilisables sur les terrains de guerre.

Pour autant, le Pentagone a appelé à la prudence en ce qui concerne l'utilisation de l'IA au niveau du commandement. L'IA générative peut en effet divulguer des données sensibles. Elle peut également produire des réponses erronées... qui pourraient donc influencer des décisions militaires importantes.

Salomé Ferraris