La startup Scale AI, valorisée à 13,8 milliards de dollars, fait face à sa troisième poursuite judiciaire en à peine plus d’un mois. Cette fois-ci, six travailleurs dénoncent des traumatismes psychologiques causés par l’exposition à des contenus perturbants lors de leurs missions d’évaluation d’IA, sans protection adéquate.
La plainte collective, déposée le 17 janvier 2025 auprès du tribunal de Californie du Nord, met en lumière les conditions de travail sur la plateforme Outlier de Scale AI. Les plaignants affirment avoir été contraints de rédiger des prompts impliquant des scènes de violence et d’abus, y compris concernant des mineurs, sans aucun soutien psychologique approprié.
« Scale AI force ses travailleurs à visionner des contenus violents et macabres pour entraîner leurs modèles d’IA, sans mettre en place un environnement de travail sécurisé », dénonce Glenn Danas, associé du cabinet Clarkson Law Firm.
Les victimes témoignent avoir développé des troubles de stress post-traumatique et autres problèmes de santé mentale suite à leur exposition répétée à ces contenus sensibles. Plus grave encore, certains affirment avoir subi des représailles après avoir sollicité une aide psychologique.
Cette nouvelle action en justice s’ajoute à deux autres plaintes déposées récemment :
- Début janvier 2025 : Une ancienne employée dénonce une rémunération inférieure au salaire minimum
- Décembre 2024 : Une première plainte collective concernant la classification abusive des travailleurs en tant que contractuels
Joe Osborne, porte-parole de Scale AI, défend sa société en affirmant qu’elle « respecte toutes les lois et réglementations » et dispose de nombreuses mesures de protection :
- Possibilité de se désengager à tout moment
- Avertissements préalables sur les contenus sensibles
- Accès à des programmes de santé et de bien-être
Les plaignants réclament la mise en place d’un programme de suivi médical, l’établissement de nouvelles normes de sécurité, ainsi que des dommages et intérêts non spécifiés. Cette affaire soulève des questions cruciales sur les conditions de travail dans l’industrie de l’IA et la protection des personnes chargées de modérer ou d’évaluer des contenus sensibles.
Scale AI, qui joue un rôle majeur dans l’annotation de données pour l’entraînement des modèles d’IA, se retrouve ainsi au cœur d’un débat sur l’éthique et la responsabilité des entreprises tech envers leurs travailleurs, alors même que l’industrie de l’IA connaît une croissance explosive.