Maroc

Kaspersky alerte sur les risques de l’IA en entreprise au Maroc.

Kaspersky a présenté, lors d’une rencontre avec le Centre Marocain de Recherches Polytechniques et d’Innovation (CMRPI), les résultats d’une étude révélant que 75% des répondants utilisent l’intelligence artificielle sans cadre clair ni directives précises. L’étude attribue un score global compris entre 2,8 et 3 sur 5 aux différentes dimensions évaluées, avec des performances relativement élevées en matière de connectivité et de cybersécurité.


En marge du **Gitex Africa 2026**, qui se tient à Marrakech, **Kaspersky** a présenté, lors d’une rencontre avec le **Centre Marocain de Recherches Polytechniques et d’Innovation (CMRPI)**, les résultats d’une étude démontrant une adoption massive de l’intelligence artificielle (IA) par les entreprises marocaines, souvent sans cadre structuré. Réalisée en partenariat avec l’**institut Averty** auprès de plus de 300 salariés, cette étude met en lumière une transformation progressive des usages professionnels, principalement animée par les employés eux-mêmes, en dehors des stratégies formalisées au sein des organisations.

Une adoption portée par les usages individuels

Dans les faits, l’intelligence artificielle est désormais considérée comme un outil quotidien. Plus d’un salarié sur deux (57 %) affirme utiliser des outils d’IA par sa propre initiative dans un cadre professionnel. Cet usage est pérenne : 84 % des utilisateurs y ont recours au moins plusieurs fois par semaine, dont près de la moitié au quotidien. Cette adoption ne se limite pas à un objectif de gain de temps ; elle témoigne également d’une quête d’amélioration de la qualité du travail. Ainsi, 69 % des utilisateurs utilisent ces outils pour produire un travail jugé de meilleure qualité. Les collaborateurs privilégient majoritairement des solutions accessibles et intuitives, souvent en dehors de leur environnement professionnel. **ChatGPT** se distingue comme la plateforme de référence, utilisée par 84 % des utilisateurs d’IA, confirmant une tendance à l’appropriation individuelle de ces technologies.

Un cadre organisationnel encore insuffisant

Face à cette dynamique, les entreprises ont du mal à structurer leur approche. L’étude révèle que 75 % des répondants utilisent l’intelligence artificielle sans cadre clair ni directives précises. Peu d’entre eux ont bénéficié de formations ou d’un accompagnement spécifique sur ces outils. Cette situation contribue à établir l’IA dans un espace organisationnel intermédiaire largement utilisé, mais mal encadré, sans distinction claire entre usages professionnels autorisés et pratiques informelles.

Des pratiques qui exposent les données professionnelles

Les résultats de l’étude mettent en évidence des pratiques susceptibles de compromettre les données des entreprises. L’utilisation d’outils externes est souvent accompagnée d’un partage significatif d’informations professionnelles, souvent sans conscience des implications en matière de sécurité. Ainsi, 42 % des utilisateurs déclarent importer des documents complets (PDF, fichiers Word ou présentations) dans des outils d’IA non contrôlés par leur entreprise. De plus, 35 % saisissent directement des informations ou des données chiffrées, tandis que 35 % partagent des extraits d’emails, de messages ou de comptes rendus. D’autres pratiques sont également observées : 30 % des utilisateurs transmettent des captures d’écran de leur environnement de travail (schémas, tableaux, graphiques) et 19 % vont jusqu’à partager des données sensibles telles que des budgets, des indicateurs de performance ou des fichiers Excel. Seule une minorité indique limiter son usage à des requêtes générales sans intégrer de données internes. L’IA apparaît dès lors comme un prolongement naturel des outils de travail, sans distinction claire entre informations partageables et données confidentielles.

Un niveau de confiance élevé malgré les risques

Ce phénomène est accentué par un niveau de confiance particulièrement élevé envers les outils d’intelligence artificielle. Selon l’étude, 91 % des utilisateurs affirment faire confiance aux résultats générés, dont une part importante avec un niveau de confiance élevé. Dans le même temps, la perception des risques demeure hétérogène. Si 46 % des répondants identifient un risque pour la sécurité des données, 35 % jugent ce risque faible ou inexistant, tandis que 19 % ne se prononcent pas. Cette dispersion des perceptions souligne un besoin de sensibilisation et d’accompagnement des utilisateurs, dans un contexte où la confiance dans les outils pourrait encourager le partage de données sensibles.

Des avancées structurelles mais des défis persistants

Parallèlement, le **CMRPI** a présenté les premiers résultats d’une étude multisectorielle consacrée au développement de l’IA au Maroc, mettant en lumière les progrès réalisés et les défis à relever. L’étude souligne l’existence d’une dynamique nationale, notamment portée par la stratégie « Maroc Digital 2030 », qui inscrit le pays dans les grandes tendances internationales liées à l’intelligence artificielle. Des avancées sont également constatées en matière d’infrastructures, avec la généralisation du haut débit, le déploiement de la fibre optique et le lancement récent de la 5G. Des initiatives ont été identifiées en matière d’**open data** ainsi que dans le développement de centres de données, soutenues par des acteurs publics et privés. Toutefois, ces initiatives doivent encore être consolidées, notamment en ce qui concerne l’accessibilité et la gouvernance des données.

Capacités de calcul et dépendance technologique

Parmi les principaux défis identifiés figurent les capacités de calcul, essentielles au développement et à l’entraînement des modèles d’intelligence artificielle. L’étude souligne l’**absence d’un cluster national** accessible à tous les acteurs, ainsi qu’une dépendance envers les technologies importées, notamment les processeurs graphiques (GPU) et les infrastructures de calcul intensif. Bien que certaines capacités existent, notamment dans le domaine académique, leur accessibilité reste limitée et les processus d’accès sont jugés complexes. La gouvernance des données constitue également un enjeu central. L’étude met en évidence des contraintes administratives et organisationnelles qui restreignent l’accès aux données publiques, ainsi que des difficultés en matière de standardisation et d’interopérabilité. En matière de cybersécurité, le Maroc bénéficie d’un cadre institutionnel jugé solide, avec des dispositifs réglementaires et des institutions dédiées. Cependant, des limites se font jour sur le plan opérationnel, surtout en termes de réaction face aux cyberattaques, y compris celles exacerbées par l’intelligence artificielle. L’étude attribue un score global compris entre 2,8 et 3 sur 5 aux différentes dimensions évaluées, avec des performances relativement élevées en termes de connectivité et de cybersécurité, mais des marges de progression significatives concernant les capacités de calcul et la gouvernance des données.

Enjeux de souveraineté numérique

Enfin, l’étude met en avant les enjeux relatifs à la souveraineté numérique, notamment la nécessité de développer des infrastructures nationales capables de garantir le contrôle des données sensibles. Elle souligne également l’importance de renforcer l’offre de cloud souverain, aujourd’hui jugée insuffisamment compétitive face aux solutions internationales, ainsi que la nécessité de garantir la continuité des stratégies publiques dans un contexte de changements institutionnels. Dans ce cadre, le développement de l’intelligence artificielle au Maroc se présente à la fois comme une opportunité et un défi, nécessitant une articulation entre innovation, gouvernance et sécurité.