Tech&Co
Tech

ChatGPT accusé d'avoir fait appel à des travailleurs kényans payés 2 dollars de l'heure pour modérer son système

L'ntelligence artificielle de ChatGPT sera "marquée" pour éviter les déboires

L'ntelligence artificielle de ChatGPT sera "marquée" pour éviter les déboires - BFMTV

Open AI, la société fondatrice du chabot basé sur l'intelligence artificielle, aurait fait appel à des travailleurs kényans payés deux dollars de l'heure pour rendre son système moins toxique, dénonce une enquête du Time.

"C'était de la torture", des travailleurs kényans témoignent dans une enquête publiée par le Time. Celle-ci révèle qu'Open AI a fait appel à Sama, une société qui emploie dans des conditions traumatisantes des salariés sous-payés.

ChatGPT fascine par sa capacité à fournir des réponses précises et complètes alors que ses connaissances reposent sur le contenu qui pullule sur Internet. En effet, l'intelligence artificielle a été entraînée selon des centaines de milliards de mots extraits du Web, représentant un vaste référentiel du langage humain. Mais il a fallu trier ces informations pour réduire au maximum le risque d'écrire des propos racistes, sexistes, voire de publier un texte choquant.

Le Time indique que pour y parvenir, Open AI s'est inspiré des méthodes de Facebook et aurait signé trois contrats avec un partenaire du réseau social: la société Sama. Cette entreprise emploie notamment des travailleurs au Kenya et se vante d'avoir sorti 50.000 personnes de la pauvreté dans le monde.

Pour 200.000 dollars, Sama devait faire le tri des contenus jugés choquants allant de textes d'abus sexuels aux discours de haine. Selon les témoignages, les salariés ne percevaient qu'1,32 à 2 dollars de l'heure contre les 12,50 dollars indiqués dans le contrat entre les deux sociétés.

"Des visions récurrentes"

Le média a également examiné des centaines de pages de documents internes de Sama et OpenAI, y compris les fiches de paie des travailleurs, et a interrogé quatre employés de Sama. Ainsi, les salariés kényans indiquent avoir "des visions récurrentes" après avoir lu durant des jours des textes traumatisants bien souvent à caractère sexuel.

Le partenariat entre les deux entreprises a débuté en novembre 2021 avant de s'arrêter brusquement en février 2022, soit huit mois plus tôt que prévu. OpenAI aurait également demandé à Sama de trier des images pour son générateur d'images Dall-E.

De son côté, OpenAI assure au média américain que l'entreprise n'avait fixé aucun objectif de productivité et que Sama était responsable de la gestion des salaires et de la santé mentale des employés. Et d'ajouter: "nous prenons très au sérieux la santé mentale de nos employés et celle de nos sous-traitants (...) l'exposition à un contenu explicite a une limite et les informations sensibles sont traitées par des travailleurs spécifiquement formés."

Open AI travaille déjà sur une prochaine version de ChatGPT qui engrangera encore plus de données.

Margaux Vulliet