Tech&Co Intelligence artificielle
Intelligence artificielle

Microsoft dévoile Project Ire, un agent IA capable de détecter les logiciels malveillants

Le logo de Microsoft.

Le logo de Microsoft. - MATTHIAS BALK / DPA / dpa Picture-Alliance via AFP

Encore au stade de prototype, cet agent est parvenu à générer un dossier de condamnation "suffisamment solide pour justifier un blocage automatique" pour un échantillon de malware.

Microsoft, Google, OpenAI... Après les chatbots, les entreprises d'IA misent de plus en plus sur les agents. Capables de réaliser des tâches au nom des utilisateurs, ces systèmes sont amenés à être utiles dans de nombreux domaines, notamment celui de la cybersécurité.

Le 5 août, Microsoft a annoncé Project Ire, un agent qui peut détecter des logiciels malveillants ("malware"). Fruit d'une collaboration de plusieurs équipes au sein de l'entreprise, il est en mesure d'analyser et de classer des logiciels sans aucune assistance humaine.

Plus précisément, il automatise ce qu'on appelle la rétro-ingénierie, qui est "la référence absolue en matière de classification des logiciels malveillants", indique Microsoft dans un article de blog. Cela consiste en l'analyse d'un logiciel pour en déduire son fonctionnement.

Logiciels malveillants et failles de sécurité

Project Ire utilise des outils pour effectuer cette rétro-ingénierie et ainsi déduire si un logiciel est malveillant ou non. Encore au stade de prototype, il est le premier agent de Microsoft à avoir généré un dossier de condamnation. Soit "une détection suffisamment solide pour justifier un blocage automatique" pour un échantillon de malware de menace persistante avancée (APT). Une attaque conçue pour être furtive et continue contre une entité spécifique. Cet échantillon a depuis été identifié et bloqué par Microsoft Defender, l'antivirus gratuit intégré à Windows.

Microsoft n'est pas la seule entreprise à travailler sur des agents dédiés à la cybersécurité. En 2024, Google a dévoilé Big Sleep, qui est alimenté par Gemini et qui est capable de rechercher et de détecter des failles de sécurité inconnues dans les logiciels. Après avoir détecté sa première vulnérabilité en novembre dernier, il en a découvert de nombreuses autres depuis, selon la société.

Le 4 août, la vice-présidente en charge de la sécurité au sein de Google a en outre dévoilé que Big Sleep avait identifié 20 failles de sécurité dans divers logiciels open source populaires.

En plus des agents, les chatbots disposent aussi de compétences en cybersécurité. Participant à des compétitions étudiantes de hacking, Claude, le chatbot développé par Anthropic, enchaîne les victoires depuis quelques temps. Comme la start-up l'a révélé à Axios, il surpasse la quasi-totalité de ses concurrents humains avec une assistance humaine minimale et peu ou pas d'effort.

Kesso Diallo