BFM Tech

Comment Apple améliore la reconnaissance d’image de votre iPhone

-

- - Don EMMERT / AFP

Dans sa première publication scientifique, Apple explique comment la reconnaissance d’image de nos iPhone est optimisée. Pour y parvenir, la société n’hésite pas à mettre en concurrence deux intelligences artificielles.

Deux intelligences artificielles mises en compétition pour améliorer la reconnaissance d’image : c’est l’enseignement tiré du tout premier article scientifique publié sur le sujet par Apple. Habituellement très secrète, la société californienne a récemment changé son fusil d’épaule en annonçant cette nouvelle politique d’ouverture.

L’enjeu est de taille pour Apple : l’intelligence artificielle se retrouve désormais à tous les niveaux des systèmes d’exploitations chez les grands noms de la technologie. Pour attirer les meilleurs experts du genre, les sociétés préfèrent donc autoriser leurs chercheurs à publier leurs travaux plutôt que de travailler dans l’anonymat le plus complet.

Contrairement à Google, Apple n'a aucune base d’exemples

Dans leur article, les six auteurs détaillent la manière dont est éduquée l’intelligence artificielle d’iOS pour qu’elle apprenne à reconnaître les sujets présents sur les photos. Ainsi, en cherchant "chien", "voiture" ou "arbre" dans l’application Photos de l’iPhone, on obtient les images correspondantes.

Le problème de taille posé à Apple par rapport à son grand concurrent Google, est que la firme de Cupertino ne dispose pas d’une immense base de données d’exemples. Google utilise en effet son moteur de recherche et ses outils de stockage en ligne pour faire correspondre un tag avec le sujet qui se trouve réellement sur les photos. Une photo de maison se verra donc attribué par défaut le tag « maison » et servira ainsi d’exemple à l’intelligence artificielle.

Créer des images de synthèse les plus réalistes possible

Apple se refusant à exploiter les données personnelles de ses clients, une autre solution a dû être trouvée. La plus logique serait de demander à des équipes d’humains de taguer manuellement les photos, mais cela prend trop de temps. Apple a donc choisi de demander à des ordinateurs de générer automatiquement des images de synthèse (équivalentes à ce que l’on peut voir dans un jeu vidéo) et de leur attribuer le tag correspondant. Ce sont ces images qui sont ensuite analysées par l’intelligence artificielle embarquée dans nos iPhone. Elle apprend ainsi à reconnaître tous les sujets qui se trouvent sur les photos réelles que l’on prend avec notre smartphone.

Le problème est que ces images de synthèse ne sont pas assez précises pour que la reconnaissance d’image soit parfaite. Les scientifiques d’Apple ont donc imaginé faire dialoguer deux intelligences artificielles entre elles pour les mettre en concurrence. Elles génèrent ainsi des images de synthèse plus réalistes et plus proches de nos photos réelles. De cette manière, votre iPhone ne confondra plus une photo de chat avec une photo de chien.

Lire l'article complet sur 01net.com