Tunisie

Question de la semaine : Le shadow IA, levier de performance ou risque ?

Depuis le lancement de ChatGpt, la première IA à avoir démocratisé les IA génératives, seniors, jeunes et moins jeunes y recourent en un simple clic pour obtenir instantanément des informations de natures diverses. Les experts sont unanimes : absolument pas, une telle interdiction serait difficilement applicable.

La Presse — Depuis le lancement de ChatGpt, première intelligence artificielle à démocratiser les IA génératives, seniors, jeunes et moins jeunes y ont recours d’un simple clic pour obtenir instantanément des informations variées : médicales, juridiques, techniques ou technologiques.

L’usage de l’IA générative s’est étendu de la sphère personnelle à celle professionnelle, infiltrant tous les domaines, y compris les environnements de travail.

Accessible et extrêmement efficace, elle est devenue l’alliée privilégiée d’un nombre croissant d’employés. Rédaction d’e-mails, traduction, synthèse de documents, apprentissage, exécution de tâches répétitives, codage… multitâche, elle apparaît comme un assistant indispensable au quotidien. Cependant, cette utilisation massive peut engendrer de réels problèmes dans le cadre professionnel, particulièrement lorsque celle-ci se fait sans encadrement, c’est-à-dire à l’insu des DSI (Directeurs des systèmes informatiques).

C’est ce que les experts qualifient de « Shadow AI » ou « IA fantôme », un terme désignant l’utilisation d’outils d’intelligence artificielle par des employés sans validation ni supervision du département informatique. D’après les spécialistes IT, l’alimentation de ces outils avec des données internes peut provoquer des fuites et exposer l’entreprise à de multiples menaces.

Il est vrai que le Shadow AI répond souvent à des objectifs légitimes : amélioration de la productivité, accélération de l’innovation, automatisation des tâches. Il témoigne d’un réflexe pragmatique des collaborateurs, dicté par des contraintes de temps et d’efficacité opérationnelle. Cependant, selon les experts, les risques sont très réels. L’absence de supervision peut encourager les fuites de données et menacer l’activité de l’entreprise, notamment si des informations sensibles sont partagées par inadvertance.

À cela s’ajoutent d’autres menaces : introduction de logiciels malveillants dans le système d’information, prises de décisions basées sur des résultats non traçables, ou encore multiplication des erreurs. Le risque d’« hallucinations » (informations erronées ou inventées générées par l’IA) reste également préoccupant.

Le récent échec impliquant un cabinet d’expertise international, ayant produit pour le gouvernement australien un rapport rempli d’erreurs et de citations fictives, en est une illustration frappante. Cela souligne à quel point un usage non encadré de l’IA générative peut nuire à l’entreprise, faisant de cette technologie une véritable arme à double tranchant. Faut-il pour autant interdire son utilisation ?

Les experts s’accordent sur un point : absolument pas. D’une part, une telle interdiction serait difficile à appliquer. D’autre part, les usages persistent, parfois via des comptes personnels ou des appareils non contrôlés, comme l’a révélé une enquête récente menée en France. La gestion efficace du Shadow AI repose plutôt sur une approche alliant règles, visibilité, sécurité et formation.

Pour les DSI, il est crucial de définir un cadre clair, en distinguant les outils autorisés de ceux qui ne le sont pas. Cette classification permet d’encadrer les usages tout en préservant un espace d’expérimentation sécurisé. La protection des données doit rester au cœur de cette stratégie. Établir une culture de transparence, où les collaborateurs déclarent les outils qu’ils utilisent au lieu de les cacher, constitue un levier essentiel.

Une meilleure visibilité sur les usages réels de l’IA permet ainsi de mieux anticiper et contenir les risques. Enfin, la formation continue s’avère indispensable. Adaptée aux métiers, pratique et régulière, elle doit démontrer qu’un usage responsable de l’IA peut à la fois accroître la productivité et garantir la sécurité des systèmes d’information.