Belgique

QRÂ : les médecins ne sont-ils pas menacés par l’IA ?

En Belgique, 6 médecins généralistes sur 10 affirment avoir déjà utilisé de l’IA dans leur pratique, et parmi eux, environ un tiers rapporte avoir rencontré un problème lors de l’utilisation. Une étude réalisée en Allemagne a montré que les résumés fournis par l’IA de Google sur les questions de santé se basent le plus souvent sur des réponses trouvées sur YouTube, bien avant les sites médicaux, les réseaux hospitaliers, portails gouvernementaux ou associations de santé.


Ameni Silini, originaires de Namur, a posé la question suivante : « Avec une intelligence artificielle de plus en plus précise, le métier ainsi que les spécialités qui n’opèrent pas tels que les psychiatres vont-ils disparaître ? »

**Il y a « IA » et « IA »**

Les experts estiment généralement que la véritable « intelligence » artificielle n’existe pas (encore ?). En tant qu’utilisateurs, nous percevons l’IA comme un outil incroyable permettant de poser toutes sortes de questions – y compris en matière de santé – dans un dialogue élaboré. Cependant, cette technologie reste mystérieuse, parfois opaque et même effrayante.

Il est important de distinguer :

1. L’IA dite « générative », que vous utilisez sous forme d’assistant « généraliste », comme ChatGPT (OpenAI), Claude (Anthropic), Microsoft Copilot ou Perplexity. Elle regroupe et restitue sous forme de dialogue les connaissances dont elle dispose pour répondre. Quand elle ne sait pas, elle a tendance à « halluciner », c’est-à-dire à fournir une réponse fausse plutôt que de répondre qu’elle ne sait pas. Ces modèles de langage sont impressionnants par leur capacité d’empathie « artificielle », utilisant la psychologie positive pour valoriser toutes vos interventions et incorporant des émojis. Ces modèles évoluent constamment, sont connectés à Internet et citent leurs sources, nécessitant de vérifier leur fiabilité.

2. L’IA de diagnostic ou de prédiction, servant les médecins : ces systèmes sont spécialisés dans la détection de nodules ou d’anévrismes sur des images médicales, la prédiction de maladies ou l’accélération de la recherche de traitements. Les plateformes de pathologie numérique analysent des échantillons de biopsie avec une grande précision. On pourrait parler ici de « reconnaissance artificielle ». Les algorithmes sont entraînés avec de très larges ensembles de données provenant de la science.

**Un patient « augmenté » mais à quel point ?**

L’émergence des modèles de langage et de l’IA générative a transformé la relation entre patients et médecins. Par exemple, un médecin reçoit une patiente bien informée sur les nouveaux traitements de sa maladie, car elle les a découverts par le biais de ChatGPT, mais il doit lui expliquer que ce protocole n’est malheureusement pas disponible en Europe. Aujourd’hui, les soignants font face à des patients « augmentés », informés des avancées médicales mais aussi des traitements indisponibles.

Un patient arrive avec un bagage médical mais aussi parfois une valise de prompts contenant des informations plus ou moins fiables. Or, il doit se rappeler que :

– Les IA génératives s’appuient parfois sur des données vérifiées, parfois pas. Une étude allemande révèle que les résumés fournis par l’IA de Google sur la santé proviennent souvent de YouTube, bien avant d’autres sources médicales.
– Ces modèles généralistes ne sont pas conçus pour le domaine médical.
– Ces IA fonctionnent sur des probabilités : elles ne peuvent établir des corrélations entre symptômes comme le ferait un médecin. Elles produisent la réponse la plus probable, ce qui peut être plausible mais pas nécessairement correct.
– Elles utilisent vos données personnelles : si vous introduisez un document médical pour obtenir des précisions, vos informations ne sont pas protégées. « Si le modèle est gratuit, on paye avec nos données. »

**Un médecin « augmenté » mais pas remplacé**

En Belgique, six médecins généralistes sur dix affirment avoir utilisé de l’IA dans leur pratique. Environ un tiers d’entre eux ont rencontré des problèmes lors de son utilisation. Ces données proviennent d’une enquête menée en novembre 2025 par la Chaire intelligence artificielle et médecine digitale de l’Université de Mons et le magazine Medi-Sphere, impliquant 225 participants.

Les généralistes ont noté un intérêt médian de 7 sur 10 pour l’IA, et un niveau de confiance médian de 6. Les tâches administratives ont reçu le plus de réponses positives (75,11 %), suivies de l’aide à la prise de décision (50,67 %).

Cependant, les médecins estiment aussi que l’IA pourrait constituer un danger pour la sécurité des soins (score médian de 6/10). Le principal risque identifié est la perte de la spécificité humaine, de la pensée réflexive et du raisonnement clinique, en raison d’une utilisation excessive de l’IA (83,56 %).

Une majorité des médecins souhaite suivre une formation à l’IA (55,11 %), bien que peu d’entre eux (16,44 %) aient déjà reçu une telle formation.

Deux ans plus tôt, en avril 2023, peu de temps après l’arrivée de ChatGPT (novembre 2022), une première enquête sur l’IA en médecine générale avait été réalisée en collaboration avec AI4Belgium. Les généralistes exprimaient déjà majoritairement une vision positive de l’IA (58 %), tout en émettant des craintes. Les données de cette enquête au printemps 2023, effectuée également par la Chaire intelligence artificielle et médecine digitale de l’Université de Mons, en partenariat avec AI4Belgium et le magazine médical Medi-Sphere, montrent que l’arrivée de ChatGPT a influencé ces perceptions.

Sur 240 médecins ayant répondu au questionnaire, ils identifiaient que les impacts principaux de l’IA dans leur pratique étaient la gestion du travail et des tâches (80 %), la facilitation des gestion des flux et des plannings (80 %), la transformation du parcours patient et des protocoles (76,6 %), ainsi que la diminution des tâches à faible valeur ajoutée (69,3 %).

**Vers des modèles spécifiques dédiés**

OpenAI a lancé ChatGPT Health en janvier 2026, une IA destinée au grand public et spécifiquement dédiée à la santé, disponible uniquement aux États-Unis. OpenAI stipule que les conversations ne servent pas à entraîner les modèles, et que Health bénéficie de protections de confidentialité.

Pour les professionnels de santé, il existe également ChatGPT for Healthcare, qui se base sur des millions d’études vérifiées et fournit des liens vérifiables.

Contrairement aux modèles généralistes, il est possible de restreindre les possibilités d’une IA. La construire avec des professionnels de santé pourrait permettre de développer des solutions technologiques sécurisées qui ne remplacent ni médecins ni psychologues, mais transforment la relation entre patient et soignant en une relation triangulaire à réinventer.

**QR répond à vos questions**

Cet article a été rédigé en réponse à une question posée directement à la rédaction de la RTBF. Vous aussi, faites entendre votre curiosité et posez-nous vos questions via le formulaire ci-dessous. Votre sujet pourrait inspirer notre prochain article « Questions-Réponses ».