High-tech

Siri, Alexa : Pourquoi les IA n’ont jamais une voix masculine ?

L’IA que l’on sollicite est souvent féminisée, selon Sylvie Borel, professeure en marketing éthique et comportement du consommateur à TBS Education. Elle identifie trois majeurs risques liés à cette humanisation, notamment la répétition des stéréotypes et la manipulation.


Elles portent des noms tels que Siri, Alexa ou Cortana. Derrière la voix amicale des assistances d’intelligence artificielle se pose une question complexe : pourquoi l’IA, qui aide et obéit, est-elle souvent féminisée ?

« On projette sur l’IA les stéréotypes de genre présents dans le monde du travail », explique Sylvie Borel, professeure en marketing éthique et comportement du consommateur à TBS Education. Des professions telles que secrétaires, assistantes ou aides à la personne sont historiquement associées aux femmes. L’IA adopte cette logique tout en utilisant d’autres mécanismes.

L’humanisation par la féminité

« Les assistantes féminines sont perçues comme plus chaleureuses, plus sensibles, plus à l’écoute », souligne la chercheuse. Cette féminisation ne se limite pas à un héritage culturel, elle répond également à une quête d’acceptabilité. « L’IA est souvent vue comme froide, rationnelle et déshumanisée. En y intégrant une touche de féminité, on lui ajoute une dimension humaine », analyse Sylvie Borel. Elle établit un parallèle avec la publicité, où des stéréotypes sexistes ont été employés pour rassurer ou séduire les consommateurs. Ici, l’IA présente une image féminine rassurante, empathique et disponible, une stratégie efficace pour générer confiance et adoption.

Cependant, cette évolution indique également un changement plus profond. « Avec les avancées de l’IA, l’humain n’est plus défini par sa rationalité ou ses compétences, mais par ses émotions », observe la professeure. L’humain est désormais défini par sa capacité à ressentir et à faire preuve d’empathie, des qualités attribuées majoritairement au féminin.

Des risques de manipulation

Cette humanisation n’est pas sans danger. Sylvie Borel en identifie trois principaux : la répétition des stéréotypes, la manipulation et l’image de la « femme-objet ». « À court terme, l’IA peut aider à lutter contre la solitude, reconnaît-elle. Le problème se pose lorsque nous ne distinguons plus l’humain du non-humain. » Bien que les IA les plus répandues, comme ChatGPT, Gemini ou Mistral, soient actuellement non genrées, la tendance pourrait changer avec l’émergence d’agents personnalisés. Cette nouvelle étape pourrait apporter des assistants personnels capables de réaliser des achats en ligne ou d’anticiper certains besoins.

Pour la chercheuse, le cadre légal actuel est insuffisant. « Les modifications dans la publicité sont régulées. Les algorithmes devraient l’être également. » Elle va plus loin : « Il serait nécessaire de légiférer pour interdire l’anthropomorphisme de l’IA. Cela est trompeur, et dans un contexte de solitude, des individus risquent d’être manipulés par des relations qui, finalement, sont avec des entreprises. » Non, les IA ne sont pas les femmes de vos vies.