KI im Gesundheitsalltag – Chancen und Verantwortung
Künstliche Intelligenz (KI) wird von immer mehr Patientinnen und Patienten genutzt, auch im Gesundheitskontext. Medizinische Begriffe, Befunde oder Informationen aus Arztgesprächen lassen sich schnell nachschlagen und erklären. Damit KI dabei sinnvoll unterstützen kann, ist ein Aspekt entscheidend: die Art und Weise, wie Fragen gestellt werden. Genau hier kommt das sogenannte Prompting ins Spiel.
Was ist ein Prompt?
Ein Prompt ist die konkrete Eingabe, also die Frage oder Anweisung, die Sie an eine KI richten. Gerade im medizinischen Bereich gilt: Die Antwort einer KI kann nur so hilfreich sein wie die Frage, die ihr gestellt wird.
KI versteht Inhalte nicht wie ein Mensch. Sie bewertet Sprache anhand statistischer Muster und Wahrscheinlichkeiten. Unklare oder sehr allgemeine Fragen führen daher zwangsläufig zu unspezifischen Antworten. Präzise und sachlich formulierte Prompts erhöhen hingegen die Chance, eine hilfreiche und verständliche Einordnung zu erhalten.
Warum klare Fragen wichtig sind
KI-Systeme reagieren auf die eingegebenen Informationen. Sie können in einem Dialog zwar weitere Fragen stellen, erkennen jedoch nicht verlässlich, welche Angaben medizinisch entscheidend sind oder welche Informationen möglicherweise fehlen. Präzise formulierte Prompts erhöhen daher die Wahrscheinlichkeit, verständliche und gut einzuordnende Antworten zu erhalten. Diese sollten jedoch immer als allgemeine Information verstanden werden, nicht als persönliche Empfehlung oder Entscheidungsgrundlage.
Hinzu kommt, dass KI-Systeme auch fehlerhafte oder nicht mehr aktuelle Informationen liefern können, ohne dies kenntlich zu machen. Sie prüfen Inhalte nicht selbstständig auf medizinische Aktualität oder individuelle Relevanz. Umso wichtiger ist es, KI-Antworten kritisch einzuordnen und sie nicht isoliert zu betrachten.
Sinnvolle Nutzung im Gesundheitskontext
Richtig eingesetzt kann Prompting für Patientinnen und Patienten einen echten Mehrwert bieten. Viele medizinische Informationen sind sprachlich komplex und schwer verständlich, insbesondere Arztbriefe, Befundberichte oder Beipackzettel. Hier kann KI unterstützen, indem sie Fachbegriffe erklärt oder allgemeine Zusammenhänge in verständlicher Sprache darstellt. Für viele Menschen ist das eine Hilfe, um medizinische Informationen überhaupt einordnen zu können.
Auch zur Vorbereitung auf Gespräche mit Ärztinnen und Ärzten oder Apothekerinnen und Apothekern kann Prompting sinnvoll sein. Wer grundlegende Begriffe bereits verstanden hat, kann gezielter nachfragen, Unsicherheiten ansprechen und aktiver am Gespräch teilnehmen. In diesem Sinne kann KI dazu beitragen, die eigene Gesundheitskompetenz zu stärken und mehr Orientierung im oft komplexen Gesundheitssystem zu gewinnen.
Dabei ist wichtig zu berücksichtigen, dass allgemeine Informationen nicht ohne Weiteres auf die persönliche Gesundheitssituation übertragbar sind. Individuelle Beschwerden, Vorerkrankungen oder Begleitmedikationen können durch KI nicht zuverlässig erfasst oder bewertet werden.
Klare Grenzen von KI im medizinischen Bereich
So hilfreich KI bei der Erklärung medizinischer Inhalte sein kann, so klar sind ihre Grenzen – und diese hängen davon ab, in welchem Kontext sie eingesetzt wird.
In der klinischen Praxis werden KI-gestützte Systeme bereits zur Unterstützung eingesetzt, etwa bei der Auswertung von Röntgen-, CT- oder MRT-Bildern. Solche Anwendungen können Auffälligkeiten markieren, Messungen automatisieren oder große Datenmengen analysieren. Sie dienen jedoch als Assistenzsysteme: Die endgültige Befundung, Einordnung und Diagnose erfolgen durch qualifiziertes medizinisches Fachpersonal, das die Verantwortung trägt.
Davon zu unterscheiden ist die Nutzung frei zugänglicher KI-Systeme durch Patientinnen und Patienten im Alltag. Diese Systeme sind keine zugelassenen Medizinprodukte, führen keine körperliche Untersuchung durch und kennen weder die vollständige Krankengeschichte noch individuelle Risikofaktoren. Auch wenn KI in einem Dialog weitere Fragen stellen kann, erfolgt dies nicht auf Grundlage eines medizinischen Urteils. Sie kann nicht zuverlässig erkennen, welche Informationen klinisch entscheidend sind, und keine strukturierte, verantwortliche Anamnese durchführen wie Ärztinnen und Ärzte.
Fragen nach der Ursache konkreter Beschwerden oder nach einer passenden Behandlung sollten daher nicht mit einer frei zugänglichen KI geklärt werden. Die Antworten können unvollständig, missverständlich oder unzutreffend sein und im schlimmsten Fall zu falschen Schlussfolgerungen führen. Zudem kann KI Unsicherheiten nicht klinisch einordnen, da sie keine Verantwortung für ihre Aussagen trägt, was bei sensiblen Gesundheitsthemen zu unnötiger Verunsicherung oder auch zu falscher Sicherheit führen kann.
Medizinische Entscheidungen gehören in die Verantwortung qualifizierter medizinischer Fachpersonen, die eine individuelle Einschätzung vornehmen und Verantwortung tragen.
Datenschutz nicht aus dem Blick verlieren
Ein weiterer zentraler Punkt ist der Schutz persönlicher Gesundheitsdaten. Gesundheitsinformationen zählen zu den sensibelsten personenbezogenen Daten. Viele KI-Assistenten sind externe Dienste, bei denen für Nutzerinnen und Nutzer nicht immer nachvollziehbar ist, ob und wie eingegebene Daten gespeichert, verarbeitet oder weiterverwendet werden.
Deshalb sollten Patientinnen und Patienten sehr bewusst mit ihren Angaben umgehen. Allgemeine, anonymisierte Fragen zu medizinischen Begriffen oder Wirkstoffen sind in der Regel risikoärmer, solange keine Rückschlüsse auf die eigene Person möglich sind. Konkrete Diagnosen, Namen, Medikationspläne oder detaillierte Krankheitsverläufe sollten hingegen nicht in frei zugängliche KI-Systeme eingegeben werden. Datenschutz ist damit ein aktiver Bestandteil verantwortungsvoller Gesundheitskompetenz.
Ergänzung statt Ersatz
KI kann helfen, medizinische Informationen besser zu verstehen und Gespräche mit medizinischem Fachpersonal vorzubereiten. Sie ersetzt jedoch keine ärztliche oder pharmazeutische Beratung. Wer KI bewusst, kritisch und datenschutzsensibel nutzt, kann sie als unterstützendes Werkzeug einsetzen, sollte ihre Grenzen jedoch stets im Blick behalten.
Digitale Unterstützung ist besonders dann hilfreich, wenn sie sicher und strukturiert eingesetzt wird. Die mediteo-App kann Sie dabei unterstützen, den Überblick über Ihre Medikamente zu behalten und gut vorbereitet in Gespräche mit Ärztinnen und Ärzten oder Apothekerinnen und Apothekern zu gehen – als sinnvolle Ergänzung im Alltag, nicht als Ersatz für persönliche Beratung.
Quellen
-
(WHO), World Health Organization (2021). Ethics and governance of artificial intelligence for health: WHO guidance. Geneva.
-
Topol, Eric J. “High-performance medicine: the convergence of human and artificial intelligence.” Nature medicine vol. 25,1 (2019): 44-56. doi:10.1038/s41591-018-0300-7
-
Glikson, E. and A. W. Woolley (2020). „Human Trust in Artificial Intelligence: Review of Empirical Research.“ Academy of Management Annals 14(2): 627-660.
-
Bender, E. M., et al. (2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?
-
Gilson, Aidan et al. “How Does ChatGPT Perform on the United States Medical Licensing Examination (USMLE)? The Implications of Large Language Models for Medical Education and Knowledge Assessment.” JMIR medical education vol. 9 e45312. 8 Feb. 2023, doi:10.2196/45312
-
European Society of Radiology (ESR). “What the radiologist should know about artificial intelligence – an ESR white paper.” Insights into imaging vol. 10,1 44. 4 Apr. 2019, doi:10.1186/s13244-019-0738-2