L’IA dans le quotidien médical : opportunités et responsabilité

L’intelligence artificielle (IA) est utilisée par de plus en plus de patients, même dans le domaine médical. Elle permet de rechercher et d’expliquer rapidement des termes médicaux, des résultats d’examens ou des informations issues de consultations médicales. Pour que l’IA puisse apporter une aide utile, un aspect est déterminant : la manière dont les questions sont posées. C’est là que le « prompting » entre en jeu.

 

Qu’est-ce qu’un prompt ?

Un prompt est une demande concrète, c’est-à-dire la question ou l’instruction que vous adressez à une IA. Dans le domaine médical en particulier, la réponse d’une IA ne peut être pertinente que dans la mesure où la question qui lui est posée l’est.

L’IA ne comprend pas le contenu comme un être humain. Elle évalue le langage à l’aide de modèles statistiques et de probabilités. Les questions imprécises ou très générales conduisent donc inévitablement à des réponses non spécifiques. En revanche, des prompts formulés de manière précise et factuelle augmentent les chances d’obtenir une interprétation utile et compréhensible.

 

Pourquoi il est important de poser des questions claires

Les systèmes d’IA réagissent aux informations saisies. Ils peuvent certes poser d’autres questions dans le cadre d’un dialogue, mais ils ne sont pas en mesure de déterminer de manière fiable quelles informations sont pertinentes sur le plan médical ou quelles informations peuvent manquer. Des prompts formulés avec précision augmentent donc la probabilité d’obtenir des réponses compréhensibles et faciles à interpréter. Celles-ci doivent toutefois toujours être considérées comme des informations générales et non comme des recommandations personnelles ou des bases pour prendre des décisions.

À cela s’ajoute le fait que les systèmes d’IA peuvent également fournir des informations erronées ou non actuelles sans le signaler. Ils ne vérifient pas eux-mêmes l’actualité médicale ni la pertinence individuelle des contenus. Il est donc d’autant plus important d’interpréter les réponses de l’IA de manière critique et de ne pas les considérer de manière isolée.

 

Une utilisation pertinente dans le contexte de la santé

Lorsque le prompting est utilisé correctement, il peut offrir une réelle valeur ajoutée aux patients. De nombreuses informations médicales sont complexes sur le plan linguistique et difficiles à comprendre, en particulier les lettres des médecins, les résultats d’analyse ou les notices des médicaments. L’IA peut ici intervenir en expliquant les termes techniques ou en présentant les concepts généraux dans un langage compréhensible. Pour beaucoup de personnes, cela constitue une aide précieuse pour pouvoir interpréter les informations médicales.

Le prompting peut également être utile pour préparer les consultations avec les médecins ou les pharmaciens. Lorsqu’on comprend déjà les termes de base, on peut poser des questions plus ciblées, aborder ses incertitudes et participer plus activement à la conversation. En ce sens, l’IA peut contribuer à renforcer ses propres compétences en matière de santé et à mieux s’orienter dans un système de santé souvent complexe.

Il est toutefois important de garder à l’esprit que les informations générales ne sont pas simplement transposables à sa propre situation de santé personnelle. L’IA ne permet pas de déterminer ou d’évaluer de manière fiable les symptômes individuels, les antécédents médicaux ou les thérapies suivies.

 

Les limites évidentes de l’IA dans le domaine médical

Si l’IA peut être très utile pour expliquer des contenus médicaux, ses limites sont tout aussi claires et elles dépendent du contexte dans lequel elle est utilisée.

Dans la pratique clinique, les systèmes basés sur l’IA sont déjà utilisés à titre d’aide, par exemple pour l’analyse des radiographies, d’images de tomodensitométrie ou d’IRM. Ils peuvent mettre en évidence des anomalies, automatiser des mesures ou analyser de grandes quantités de données. Il s’agit toutefois de systèmes d’assistance : le constat final, l’interprétation et le diagnostic sont effectués par du personnel médical qualifié qui en assume la responsabilité.

Il faut distinguer cela de l’utilisation de systèmes d’IA librement accessibles par les patients dans leur vie quotidienne. Ces derniers ne sont pas des dispositifs médicaux homologués, ils ne procèdent à aucun examen physique et ne connaissent ni les antécédents médicaux complets ni les facteurs de risque individuels. Même si l’IA peut poser d’autres questions dans le cadre d’un dialogue, cela ne repose pas sur un jugement médical. Elle ne peut pas reconnaître de façon fiable les informations qui sont cliniquement décisives et ne peut pas établir une anamnèse structurée et responsable comme le font les médecins.

Les questions relatives à la cause de symptômes concrets ou au traitement approprié ne doivent donc pas être clarifiées à l’aide d’une IA librement accessible. Les réponses peuvent être incomplètes, ambiguës ou inexactes et, dans le pire des cas, conduire à des conclusions erronées. De plus, l’IA est incapable d’interpréter cliniquement les incertitudes, car elle n’assume aucune responsabilité pour ses déclarations, ce qui peut susciter des inquiétudes inutiles ou même donner un faux sentiment de sécurité lorsqu’il s’agit de questions de santé sensibles.

Les décisions médicales relèvent de la responsabilité de professionnels de santé qualifiés, qui procèdent à une évaluation individuelle et assument leurs responsabilités.

 

Ne pas perdre de vue la protection des données

La protection des données personnelles relatives à la santé est un autre point essentiel : les informations de santé comptent parmi les données personnelles les plus sensibles. De nombreux assistants IA sont des services externes dont les utilisateurs ne peuvent pas toujours savoir si et comment les données saisies sont enregistrées, traitées ou réutilisées.

C’est pourquoi les patients doivent être très vigilants avec leurs informations. Les questions générales et anonymisées sur des termes médicaux ou des principes actifs présentent généralement moins de risques, tant qu’il n’est pas possible d’identifier la personne concernée. Les diagnostics concrets, les noms, les plans de médication ou les antécédents médicaux détaillés ne devraient pas être saisis dans des systèmes d’IA librement accessibles. La protection des données est donc un élément essentiel d’une pratique sanitaire responsable.

 

Un outil complémentaire, pas un substitut

L’IA peut aider à mieux comprendre les informations médicales et à préparer les consultations avec les professionnels de santé. Elle ne remplace toutefois pas les conseils médicaux ou pharmaceutiques. Utilisée de manière consciente, critique et dans le respect de la protection des données, l’IA peut être un outil pertinent, mais il faut toujours garder à l’esprit ses limites.

L’aide numérique est particulièrement utile lorsqu’elle est utilisée de manière sûre et structurée. L’application mediteo peut vous aider à garder une vue d’ensemble de vos médicaments et à vous préparer au mieux à vos consultations chez le médecin ou le pharmacien en tant que complément pertinent dans la vie quotidienne, et non comme remplacement d’un conseil personnalisé.

 

Sources

 

Retour au blog.