Gesundheits-Apps & KI

Close-up of a smartwatch showcasing various colorful app icons on its screen.

Seit 2020 können Ärzte medizinische Apps verordnen, die Menschen bei ihrer Therapie unterstützen.

Ob Tinnitus, Migräne, Rückenschmerzen oder Depression – bei vielen Diagnosen können Ärzte ihren Patienten Digitale Gesundheitsanwendungen, kurz „DiGA“, verordnen.

Die DiGA sind Apps, die auf Smartphone oder Tablet heruntergeladen werden können und die Patienten bei der Überwachung, Behandlung oder Linderung von Krankheiten unterstützen sollen. Bei einer bestimmten Indikation kann man DiGA Apps auf Rezept bekomme, über den Vertragsarzt der gesetzlichen Krankenversicherungen oder direkt von der Krankenkasse.

In 2025 sind knapp 60 Apps im DiGA-Verzeichnis gelistet, die vom BfArM (Bundesinstitut für Arzneimittel und Medizinprodukte) gemäß § 139e SGB V bewertet wurden.

Rund 400.000-mal wurden medizinische Apps bislang verordnet. Am häufigsten werden sie zur Behandlung von psychischen Erkrankungen in Anspruch genommen, zum Beispiel bei Depressionen und Angststörungen. Dann folgen medizinische Apps bei Stoffwechselkrankheiten und die, die bei Erkrankungen des Muskel-Skelett-Systems verordnet werden, also zum Beispiel bei Rücken- oder Knieschmerzen.

In Rahmen der von uns angebotenen Leistungen, beantworten wir u.a. folgende Fragen:

Kann ChatGPT eine Therapie ersetzen?

Ein zentrales Problem ist, dass die KI insbesondere bei komplexen Themen Fehler machen kann. ChatGPT ist nicht immer in der Lage, die Nuancen von Gesprächen zu verstehen und darauf richtig zu reagieren.

Dr. Andrea Benecke, Präsidentin der Bundespsychotherapeutenkammer (BPtK), warnt vor dieser Gefahr: „Generische KI-Anwendungen wie ChatGPT sind aktuell nicht hinreichend darauf trainiert, jungen Menschen in psychischen Krisen verlässliche Unterstützung zu bieten.“

Unterliegt ChatGPT der Schweigepflicht?

Nein. Der fehlende Datenschutz bei ChatGPT stellt ein gravierendes Problem dar… „OpenAI“ der Anbieter von ChatGPT, speichert Daten und unterliegt nicht der Schweigepflicht – wie etwa ein Therapeut. Das ist insbesondere dann riskant, wenn Nutzer sensible Informationen über psychische Probleme preisgeben.

Zudem basieren die Antworten der KI auf einer riesigen Datenmenge aus dem Internet – und damit nicht nur auf faktenbasierten, sondern auch falschen Inhalten. Es bestehe die Gefahr, dass die KI negative Vorurteile oder diskriminierende und stigmatisierende Annahmen wiederholt.

Eignen sich Chatbots, wie „Woebot“ oder „Wysa“ als Tools zur Hilfeleistung?

Abseits von ChatGPT werden speziell für mentale Probleme entwickelte Chatroboter beliebter. Dazu zählen etwa der an der Universität Stanford entwickelte „Woebot“ oder der von Startup-Gründerin Jo Aggarwal konzipierte Psycho-Bot „Wysa“. Wysa sei dem Unternehmen zufolge etwa für Menschen gedacht, die unter Stress oder Angstzuständen leiden.

Ziel der Anwendung sei nicht, Krankheiten zu heilen oder eine Psychotherapie zu ersetzen, betonen die Wysa-Betreiber auf ihrer Website. Vielmehr sei der Bot als Tool zur Hilfeleistung bei milderen Problemen wie Stress oder Schlafstörungen gedacht.

Frau Dr. Andrea Benecke Präsidentin der Bundespsychotherapeutenkammer rät grundsätzlich zur Vorsicht:

„Zur eigenständigen Behandlung psychischer Erkrankungen sind KI-Anwendungen aktuell auch unter dem Aspekt der Patientensicherheit nicht geeignet„,

Handlungsempfehlungen zum richtigen Umgang mit Gesundheits-Apps und KI geben wir im Rahmen unserer Leistungen gerne.

Nehmen Sie einfach Kontakt mit uns auf – hier ist Platz für Ihre Nachricht:

Name
WordPress Cookie Plugin von Real Cookie Banner