BFM Tech

Les assistants virtuels sont souvent harcelés sexuellement

Le personnage Cortana du jeu Halo, qui a donné le nom et la personnalité au service d'assistance virtuelle de Microsoft

Le personnage Cortana du jeu Halo, qui a donné le nom et la personnalité au service d'assistance virtuelle de Microsoft - Microsoft

Une part non négligeable des interactions avec les assistants virtuels, ces robots logiciels, sont d’ordre sexuel. Un comportement que les éditeurs ont parfois du mal à canaliser.

Les robots logiciels sont en train de coloniser nos PC et nos smartphones. Ils s’appellent Siri, Cortana, Alexa ou portent simplement le nom d’une marque quand il s’agit d’un « chatbot », un robot de conversation. Leur rôle est clair : ils sont là pour nous aider, nous donner des informations, faire des réservations, passer des commandes… Et pourtant, une part non négligeable des requêtes qu’ils reçoivent n’a rien à avoir avec tout cela, mais s'avère d’ordre sexuel.

Selon Quartz, qui a interrogé des éditeurs et des développeurs, cela peut aller du simple flirt aux propos franchement obscènes. Selon Robin Labs, un éditeur spécialisé dans le développement de chatbots, environ 5 % des interactions sont portés sur la chose. Mais cela pourrait être beaucoup plus, car ces propos ne sont pas toujours faciles à détecter, étant donné leur caractère parfois ambigu et connoté. "Les gens veulent draguer, ils rêvent d’une petite amie soumise ou carrément d’une esclave sexuelle. Cela peut être simplement pour rigoler. Mais cela peut être lié aussi à un désir plus profond", analyse Ilya Eckstein, PDG de la société.
En février dernier, à l’occasion de la conférence Virtual Assistant Summit 2016, une responsable éditoriale pour Microsoft Cortana avait expliqué que les utilisateurs "parlent très ouvertement avec Cortana" et qu’une "bonne partie des premières requêtes" portaient sur la vie sexuelle de ce robot logiciel.

Evidemment, Microsoft et les autres compagnies ne souhaitent pas encourager ce type d’interactions. Les éditeurs vont donc essayer de programmer des réponses suffisamment distantes pour inciter l’utilisateur à se recentrer sur un usage normal. Le problème, c’est que les éditeurs ont également intérêt à définir un caractère bien trempé pour leurs robots logiciels, car cela rend les interactions plus agréables. Cortana et ses amis essayent donc, quand ils le peuvent, d’être un peu drôle et de tenir des propos un tantinet personnel. Il s’avère aussi que les assistants virtuels ont souvent une personnalité féminine par défaut. Microsoft, pour sa part, a même baptisé son service d’après le nom d’un personnage du jeu Halo, une femme svelte de couleur bleue. Or, plus un robot ressemble à un humain, plus les utilisateurs ont visiblement tendance à se laisser aller.