Sommet de l’IA : « Quatre vidéos par minute à traiter »… En Afrique, les petites mains de la tech veulent être entendues
![](https://1001infos.net/wp-content/uploads/2025/02/sommet-de-lia-quatre-videos-par-minute-a-traiter-en-afrique-les-petites-mains-de-la-tech-veulent-etre-entendues.jpg)
Il y en avait aussi pour les humains lors du sommet de Paris pour l’action sur l’intelligence artificielle, qui a lieu lundi et ce mardi au Grand Palais. Dans un coin du forum, un stand avec un drapeau rouge jure avec l’ambiance feutrée : UNI Global Union. Cette fédération internationale des travailleurs du tertiaire représentait les travailleurs de la tech en Afrique, qui ne veulent pas être oubliés dans la course à l’IA.
Ils sont au moins 40.000 à Nairobi (Kenya), et encore d’autres au Ghana et au Nigeria. Pour beaucoup, on est loin du glamour de la Silicon Valley, mais plutôt dans l’enfer de la modération. Pour 2 dollars de l’heure, ils doivent trier les contenus signalés sur les réseaux sociaux. Et si les équipes de modération européennes récoltent des tâches les moins compliquées comme les insultes ou les propos homophobes, « en Afrique, on récupère tout le contenu graphique : mutilation, exploitation humaine, suicide », se désole Sonia Kgomo. Après avoir travaillé deux ans et demi, pour une entreprise de modération contractée par Meta, elle représente aujourd’hui d’autres travailleurs dans cette campagne.
« J’ai visionné des contenus sexuels choquants »
L’ancienne modératrice explique que l’Afrique est largement sollicitée pour sous-traiter la modération, y compris des contenus qui n’ont rien à voir avec le continent. Elle a par exemple été « formée » sur les gangs américains, afin de pouvoir modérer des vidéos publiées sur les réseaux sociaux aux Etats-Unis. Et, surtout, la cadence ne lui laissait aucun repos. « On travaillait dix heures par jour, avec des heures supplémentaires sans compensation, ou des horaires qui pouvaient enchaîner du travail le soir puis le matin, témoigne Sonia Kgomo. Et on avait seulement quinze secondes par ticket, donc on devait regarder et traiter quatre vidéos par minute. »
Un rythme infernal pour regarder des vidéos violentes, d’autant que les modérateurs sont très peu accompagnés pour parler des images qu’ils visionnent. « Il y avait très peu de soutien sur le plan de la santé mentale, insiste Sonia Kgomo. Les gens développaient des angoisses, de la paranoïa, du stress post-traumatique. » « J’ai visionné des contenus sexuels choquants, et cela m’a affecté psychologiquement et physiquement, abonde Kings Korodi, un autre ancien modérateur de contenu qui partage son témoignage dans la campagne de l’UNI. J’ai souffert d’insomnie en pensant aux choses que je voyais au travail. »
Tous nos articles sur l’intelligence artificielle
Et si l’UNI est présente pour le sommet de l’IA, c’est parce que la tendance ne va que s’accélérer avec l’intelligence artificielle. L’entraînement des modèles demande une quantité importante de données, et des entreprises africaines sont sollicitées pour le « data labelling ». Plus largement, Christy Hoffman, secrétaire générale de l’UNI, alertait lors d’une table ronde sur les risques causés par l’IA pour les travailleurs. « [Ils] ne sont pas convaincus que les employeurs les associeront aux décisions concernant la manière et le lieu d’utilisation de l’IA, que leurs emplois sont sûrs ou qu’ils auront la possibilité d’acquérir les compétences qui seront nécessaires pour aller de l’avant », a-t-elle averti. Signal positif : la justice kenyane a déclaré en octobre que Meta devrait être jugée pour les conditions de travail de ses modérateurs dans le pays.