Afin d’éviter que ChatGPT ne puisse produire des textes racistes ou violents, OpenAI a fait appel à des travailleurs africains, chargés de classer textes et images selon leur toxicité.
Une technologie vitrine… mais une arrière-boutique bien moins reluisante. Pour sécuriser ChatGPT, outil de génération de texte consulté par des millions d’utilisateurs à travers le monde, l’entreprise OpenAI aurait fait appel à des «travailleurs du clic» basés au Kenya et dans plusieurs pays d’Afrique. Leur mission: traiter à la chaîne, et à peu de frais, plusieurs milliers de documents choquants pour éviter que l’intelligence artificielle n’affiche des textes racistes ou violents.
Révélées par le magazine Time mercredi 18 janvier, ces pratiques mettent à mal les promesses philanthropiques et humanistes de la start-up. Depuis sa création par les hommes d’affaires Elon Musk et Sam Altman en 2015, OpenAI tente de se positionner comme une alternative éthique aux GAFAM. L’organisation met régulièrement en avant son travail «pour le bénéfice de l’humanité», et son souci de ne pas nuire avec ses technologies.
Pour éviter que ChatGPT ne serve à produire des appels à la haine ou la recette de fabrication d’une bombe artisanale, OpenAI aurait ainsi missionné à partir de novembre 2021 un sous-traitant, appelé Sama, qui collabore également avec Meta et Google. Le but? Classer pléthore de textes abjectes, et ainsi développer un filtre intelligent afin d’empêcher la machine de déraper – le système n’étant pas capable d’identifier la nature d’un texte de lui-même.
Mon commentaire :
Ce nouvel exemple illustre que derrière l’intelligence artificielle, on retrouve bien des humains exploités dans différentes régions du monde. On lira à profit le sociologue Antonio Casilli qui a enquêté sur ces « tâcherons » modernes dans cet entretien à France Info de 2019 : Avec le sociologue Antonio Casilli, une enquête sur « les galériens du clic ». Depuis la situation ne s’est pas améliorée avec la pandémie.
Source : ChatGPT: derrière l’exploit, des ouvriers du clic exposés à des récits de viol | Heidi.News
Crédit image : Des travailleur de l’ombre ont classé de nombreux textes violents, pour batir des filtres contre les propos toxiques de ChatGPT. Dall-E