En tant que journaliste spécialisé dans l’IA, je suis consterné d’apprendre les révélations récentes du Time concernant l’utilisation de travailleurs kényans sous-payés pour rendre le célèbre chatbot OpenAI, ChatGPT, moins toxique. ChatGPT, lancé en novembre 2022, est considéré comme l’une des innovations technologiques les plus impressionnantes de cette année, avec plus d’un million d’utilisateurs en une semaine. Cependant, l’enquête du Time révèle que dans leur quête pour éliminer la toxicité de ChatGPT, OpenAI a fait appel à des travailleurs kényans qui ont été payés moins de 2 dollars de l’heure pour traiter les données de formation de l’IA. Cette révélation est d’autant plus décevante que OpenAI est actuellement en discussion pour lever des fonds à une valorisation de 29 milliards de dollars, avec un potentiel investissement de 10 milliards de dollars de Microsoft.

OpenAI critiqué pour avoir utilisé des travailleurs kényans sous-payés pour améliorer ChatGPT

Pour construire ce système de sécurité, OpenAI a emprunté une technique utilisée par les entreprises de médias sociaux telles que Facebook, qui ont déjà prouvé qu’il était possible de créer des IA capables de détecter un langage toxique comme l’incitation à la haine pour l’éliminer de leurs plateformes. Le principe était simple : alimenter une IA avec des exemples étiquetés de violence, d’incitation à la haine et d’abus sexuels, et cet outil pourrait apprendre à détecter ces formes de toxicité dans la nature. Ce détecteur serait intégré à ChatGPT pour vérifier s’il répétait la toxicité de ses données d’entraînement et la filtrer avant qu’elle n’atteigne l’utilisateur. Il pourrait également aider à nettoyer le texte toxique des jeux de données d’entraînement des futures modèles d’IA.

Pour obtenir ces étiquettes, OpenAI a envoyé des milliers d’extraits de texte à une entreprise de sous-traitance au Kenya, à partir de novembre 2021. La plupart de ce texte semblait provenir des recoins les plus sombres d’Internet. Certains décrivaient des situations en détail graphique comme l’abus sexuel d’enfants, la bestialité, le meurtre, le suicide, la torture, l’automutilation et l’inceste.

Le partenaire de sous-traitance d’OpenAI au Kenya était Sama, une entreprise basée à San Francisco qui emploie des travailleurs au Kenya, en Ouganda et en Inde pour étiqueter les données pour des clients de la Silicon Valley tels que Google, Meta et Microsoft. Sama se présente comme une entreprise d’IA « éthique » et prétend avoir aidé à sortir plus de 50 000 personnes de la pauvreté.

Les étiqueteurs de données employés par Sama au nom d’OpenAI ont reçu un salaire de base d’environ 1,32 à 2 dollars de l’heure en fonction de leur ancienneté et de leur performance. Pour cette histoire, le Time a examiné des centaines de pages de documents internes de Sama et OpenAI, y compris les bulletins de salaire des travailleurs, et a interviewé quatre employés de Sama qui ont travaillé sur le projet. Tous les employés ont parlé sous condition d’anonymat, craignant pour leur avenir professionnel.

L’histoire des travailleurs qui ont rendu possible ChatGPT offre un aperçu des conditions dans cette partie peu connue de l’industrie de l’IA, qui joue pourtant un rôle essentiel dans les efforts pour rendre les systèmes d’IA sûrs pour une utilisation publique. « Malgré le rôle fondamental joué par ces professionnels de l’enrichissement des données, une croissante recherche révèle les conditions de travail précaires auxquelles ces travailleurs sont confrontés », déclare le Partnership on AI, une coalition d’organisations d’IA dont OpenAI fait partie. « Cela peut être le résultat des efforts pour cacher la dépendance de l’IA à cette grande force de travail lors de la célébration des gains d’efficacité de la technologie. Hors de vue, c’est aussi hors de l’esprit. » (OpenAI ne dévoile pas les noms de ses sous-traitants et il n’est pas clair si OpenAI a travaillé avec d’autres entreprises de marquage de données en plus de Sama pour ce projet.)