Microsoft fait disparaître son équipe dédiée à l'éthique de l'intelligence artificielle

On peut miser gros sur l’intelligence artificielle et pourtant mettre à la porte des personnes qui travaillent dessus. C’est ce qu’a fait Microsoft il y a quelques jours en licenciant l’équipe chargée de proposer une intelligence artificielle plus "éthique". D’abord réduite de 30 à 7 personnes en octobre dernier, l'équipe a finalement été dissoute par l'entreprise.
Une décision qui représente un vrai risque, aux yeux des employés concernés. Dans des propos rapportés par le média américain Platformer, ces derniers s’inquiètent de l'absence de contrôles préalables sur les outils liés à l’intelligence artificielle, alors que Microsoft investit massivement sur cette technologie.
"Notre travail consistait à expliquer ce qu’était une IA responsable et à créer des règles dans des domaines où il n'y en avait pas", explique un ancien employé à Platformer.
Des outils pour maîtriser l’IA
Et pour proposer une intelligence artificielle plus responsable, le service avait mis en place plusieurs outils et contrôles préalables. L'équipe a par exemple mis en place un jeu de rôle baptisé "Judgment Call" ("Jugement personnel" en français) qui a aidé les concepteurs à imaginer les dommages potentiels pouvant résulter de l'IA et à en discuter lors du développement d’un produit.
Les employés avaient plus généralement créé une "boîte à outils d'innovation responsable" qui permettait de mettre au point une technologie plus éthique. Leur but était aussi d'encadrer autant que possible l’explosion croissante des activités de Microsoft avec OpenAI.
"A mesure que Microsoft se concentrait sur la livraison d'outils d'IA plus rapidement que ses rivaux, la direction de l'entreprise s'intéressait moins au type de réflexion à long terme dans laquelle l'équipe s'était spécialisée", indique un autre ex-employé du service.
Et ces licenciements interviennent à un moment clef pour l’entreprise, qui prévoit très prochainement d’offrir les services d’OpenAI à un très large public. Mais les employés chargés de l’IA responsable ont toutefois mis en garde Microsoft sur les potentiels risques de ces outils, notamment DALL-E, sur les droits d’auteur et les artistes concernés.
"En testant Bing Image Creator, il a été découvert qu'avec une demande comprenant uniquement le nom de l'artiste et un style (peinture, impression, photographie ou sculpture), les images générées étaient presque impossibles à différencier des œuvres originales", ont alerté les chercheurs, dans une note adressée à leurs supérieurs.
"Il y a un risque de porter atteinte au droit d'auteur: à la fois pour l'artiste et ses parties prenantes financières, avec les retombées négatives pour Microsoft résultant des plaintes des artistes, sans compter la réaction négative du public. Les risques sont suffisamment réels et importants pour être corrigés avant qu'ils ne nuisent à la marque Microsoft", ont ajouté les employés.
OpenAI avant tout
L’entreprise américaine a en effet décidé de mettre tout en œuvre pour proposer au plus grand nombre et sur le maximum de services possibles les talents d’OpenAI et de ses différents outils, comme ChatGPT ou DALL-E. Mais cette expansion du domaine d’activité devait toutefois s’accompagner de règles et d’investissements, ce à quoi Microsoft répond de manière positive dans un communiqué.
"Microsoft s'engage à développer des produits et des expériences d'IA de manière sûre et responsable, et le fait en investissant dans des compétences, des processus et des partenariats qui en font la priorité […] Nous apprécions le travail de pionnier que l'équipe d'éthique a réalisé pour nous aider dans notre parcours continu d'IA responsable", indique l’entreprise.
Ces coupes budgétaires ne sont toutefois pas nouvelles dans l’entreprise américaine. Depuis plusieurs mois, à l’instar d’autres géants de la tech, Microsoft procède à des licenciements. En janvier dernier, la société a annoncé une série de "mesures d'économies", dont le licenciement d'environ 10.000 employés d'ici fin mars. Toujours auprès de Platformer, l'entreprise assure malgré tout investir massivement dans le contrôle éthique de l'IA.