Chatbots: Zulassung als Medizinprodukt?


Chat-Tools wie ChatGPT oder MedPaLM von Google haben großes medizinisches Potenzial, ihre unregulierte Verwendung im Gesundheitswesen birgt jedoch Risiken, findet Prof. Stephen Gilbert.

Sprachmodelle wie ChatGPT agieren wie neuronale Netzwerke mit bemerkenswerten Fähigkeiten zum Dialog, wie Gilbert beschreibt. (Foto von Josh Riemer auf Unsplash)

 

Große Sprachmodelle sind neuronale Netzwerke mit bemerkenswerten Konversationsfähigkeiten. Sie erzeugen menschenähnliche Reaktionen und führen interaktive Gespräche. Allerdings generieren sie oft äußerst überzeugende Aussagen, die nachweislich falsch sind oder unangemessene Antworten liefern.

„Diese Chatbots sind unsichere Werkzeuge, wenn es um medizinische Beratung geht und es ist notwendig, neue Rahmenbedingungen zu entwickeln, die die Patientensicherheit gewährleisten“, betont Prof. Stephen Gilbert, Professor für Medical Device Regulatory Science am Else Kröner Fresenius Zentrum für Digitale Gesundheit an der TU Dresden. 

Sprachmodelle: Herausforderungen bei der behördlichen Zulassung 

Suchmaschinen spielen im Entscheidungsprozess bei medizinischen Fragen mittlerweile eine wichtige Rolle. Die bevorstehende Integration von LLM-Chatbots in Suchmaschinen könnte das Vertrauen der Benutzer:innen in die Antworten eines Chatbots, der menschliche Konversationen nachahmt, erhöhen.

Es hat sich jedoch gezeigt, dass LLMs äußerst gefährliche Informationen liefern können, wenn sie mit medizinischen Fragen konfrontiert werden. Der zugrundeliegende Ansatz von LLM enthält kein Modell einer medizinischen „Grundwahrheit“.

Ground Truth ist eine Prozessmethode, die sicherstellt, dass die der Analyse zu Grunde gelegten Daten aktuell, präzise, vollständig und bestens gepflegt sind. LLMs mit Chat-Schnittstelle haben schon schädigende medizinische Antworten erzeugt und wurden bereits in Versuchen an Patienten, ohne deren Einverständnis, eingesetzt. 

Nahezu jeder medizinische LLM-Anwendungsfall erfordert in der EU und den USA eine behördliche Kontrolle. LLMs mit nachvollziehbaren Ergebnissen, geringer Verzerrung, vorhersagbar, korrekt und mit überprüfbaren Ergebnissen gibt es derzeit nicht.

In einem Nature-Medicine-Artikel beschreibt Gilbert und sein Team die begrenzten Szenarien, in denen LLMs unter den aktuellen Rahmenbedingungen Anwendung finden könnten. Sie erklären, wie LLM-basierte Tools entwickelt werden können, die als medizinische Geräte zugelassen werden könnten, und sie untersuchen die Entwicklung neuer Rahmenbedingungen für die Sicherheit der Patienten.

„Aktuelle LLM-Chatbots erfüllen nicht die wichtigsten Prinzipien für KI im Gesundheitswesen, wie Voreingenommenheitskontrolle, Erklärbarkeit, Aufsichtssysteme, Validierung und Transparenz. Um sich ihren Platz im medizinischen Repertoire zu verdienen, müssen Chatbots für eine höhere Genauigkeit konzipiert werden, wobei Sicherheit und klinische Wirksamkeit nachgewiesen und von den Aufsichtsbehörden genehmigt werden müssen“, fordert Gilbert.

 

Originalpublikation:

Veröffentlichung in Nature Medicine: „Large language model AI chatbots require approval as medical devices“ – Stephen Gilbert, Hugh Harvey, Tom Melvin, Erik Vollebregt, Paul Wicks


DOI: 10.1038/s41591-023-02412-6


Publikation im Rahmen des Forschungsprojekts „PATH – Personal Mastery of Health and Wellness Data“ – BMBF-gefördert und EU-NextGenerationEU-Programm unter dem Förderkennzeichen 16KISA100K.

Erhalten Sie jetzt uneingeschränkten Zugriff auf alle interessanten Artikel.
  • Online-Zugriff auf das PM-Report Heftarchiv
  • Aktuelle News zu Gesundheitspolitik, Pharmamarketing und alle relevanten Themen
  • 11 Ausgaben des PM-Report pro Jahr inkl. Specials
Mehr erfahren