Die Pilotstudie, die die Verwendung des großen Sprachmodells zur Unterstützung von Ärzten untersucht hat, zeigt vielversprechende Ergebnisse. Der Chatbot mit künstlicher Intelligenz (KI) erwies sich als fähig, Patienten zu diagnostizieren und Ärzte zu unterstützen. Diese Erkenntnisse könnten in Zukunft einen bedeutenden Beitrag zur medizinischen Versorgung in Notaufnahmen leisten.
Die Forscher des Jeroen-Bosch-Krankenhauses in den Niederlanden fütterten zwei Versionen von ChatGPT mit ärztlichen Notizen und anonymisierten Patienteninformationen von über 30 Fällen, darunter Untersuchungen, Symptome und Laborergebnisse.
Die Studie enthüllte eine erstaunliche Übereinstimmung von rund 60 Prozent zwischen den Diagnoselisten, die von den Notärzten erstellt wurden, und den vom Chatbot vorgeschlagenen Optionen.

Dr. Hidde ten Berg, einer der Studienautoren und Spezialist für Notfallmedizin am Jeroen Bosch Krankenhaus, kommentierte die Ergebnisse: „Wir haben festgestellt, dass ChatGPT in der Lage ist, eine Liste möglicher Diagnosen zu erstellen und die wahrscheinlichste Option vorzuschlagen. Wir haben auch viele Überschneidungen mit den Listen wahrscheinlicher Diagnosen der Ärzte festgestellt. Einfach ausgedrückt bedeutet dies, dass ChatGPT in der Lage war, medizinische Diagnosen vorzuschlagen, ähnlich wie es ein menschlicher Arzt tun würde.“
In Bezug auf die Genauigkeit zeigte sich, dass die Notärzte in 87 Prozent der Fälle die richtige Diagnose in ihren Top-5-Listen hatten. ChatGPT Version 3.5 hingegen erzielte in 97 Prozent der Fälle die korrekte Diagnose in seiner engeren Liste, verglichen mit 87 Prozent bei ChatGPT Version 4.0. Dies deutet darauf hin, dass die ältere Version des Modells möglicherweise genauer bei der Diagnosestellung ist.
Nicht als medizinisches Gerät zugelassen: Dieses Werkzeug dient anderen Zwecken
Die Forschung diente als Proof of Concept und hatte nicht den Zweck, Patienten zu beeinflussen, sondern vielmehr, um das Potenzial oder die Machbarkeit des Einsatzes generativer KI für die Diagnose zu testen.
Es ist jedoch noch nicht etwas, das für den klinischen Einsatz verfügbar sein wird.
„Zumindest in Europa besteht eines der Probleme darin, dass die Gesetzgebung sehr streng ist“, sagte Studienautor Steef Kurstjens von der Abteilung für klinische Chemie und Hämatologie am Jeroen Bosch Hospital gegenüber Euronews Next.

„Diese Art von Werkzeugen sind also keine medizinischen Geräte. Wenn Sie sie also verwenden, um die Patientenversorgung zu beeinträchtigen, verwenden Sie ein Werkzeug, das kein medizinisches Gerät ist, als medizinisches Gerät, und das ist nicht erlaubt. Ich denke also, dass neue Gesetze [verabschiedet] werden müssen, wenn Sie dies nutzen wollen“, fügte er hinzu.
Der Datenschutz von Patientendaten ist ein weiteres großes Problem beim Einsatz generativer KI im Gesundheitswesen. Einige Experten fordern die politischen Entscheidungsträger auf, zu versuchen, potenzielle Risiken durch Regulierung zu reduzieren.
KI als Entlastung für überlastete Gesundheitsfachkräfte: Potenzial und Herausforderungen
Die Einsatzmöglichkeiten von KI im Gesundheitswesen sind äußerst vielversprechend. Experten sehen hierin eine potenzielle Möglichkeit, Ärzten Zeit zu ersparen, sie bei der Diagnosestellung zu unterstützen und den Verwaltungsaufwand im Gesundheitssystem zu reduzieren.
Laut Kurstjens von Euronews Next könnte KI als unterstützendes Tool Ärzte dabei unterstützen, Diagnoselisten zu erstellen oder auf Ideen zu kommen, die ihnen selbst möglicherweise nicht in den Sinn gekommen wären. Dies wäre insbesondere für weniger erfahrene Ärzte in der Ausbildung eine wertvolle Unterstützung im Alltag.
Des Weiteren betonen die Forscher, dass es großes Potenzial für Zeitersparnisse und verkürzte Wartezeiten in Notaufnahmen gibt.

Youri Yordanov vom St. Antoine-Krankenhaus in Paris, der auch in diesem Jahr den Vorsitz des Abstract-Komitees des Kongresses für Notfallmedizin innehat, betonte, dass Ärzte noch weit davon entfernt seien, ChatGPT klinisch einzusetzen. Er fügte hinzu, dass es von großer Bedeutung sei, die Technologie eingehend zu untersuchen und herauszufinden, wie sie Ärzten und Patienten helfen könne.
„Menschen, die in die Notaufnahme müssen, möchten so schnell wie möglich behandelt werden und eine korrekte Diagnose und Behandlung ihres Problems erhalten“, so Yordanov. „Ich freue mich auf weitere Forschung in diesem Bereich und hoffe, dass sie letztendlich die Arbeit vielbeschäftigter Gesundheitsfachkräfte unterstützen wird.
Die WHO warnt: Sorgfältiger Umgang mit KI, um Schäden zu vermeiden
Die zunehmende Rolle der künstlichen Intelligenz (KI) im Gesundheitswesen bringt zweifellos viele Chancen mit sich. Besonders im Bereich der Arzneimittelentwicklung und beim Screening eröffnen sich fantastische Möglichkeiten. Dennoch warnte Dr. Hans Kluge, Europa-Regionaldirektor der Weltgesundheitsorganisation, vor einer potenziellen Bedrohung: dem Mangel an angemessener Regulierung.
Die Grundprinzipien der Medizin dürfen nicht außer Acht gelassen werden, betonte Kluge. Das oberste Gebot lautet „primum non nocere“ – zuerst nicht schaden. Deshalb sei es von entscheidender Bedeutung, dass Regierungen eine ausgewogene Regulierung etablieren, die Innovation nicht erstickt, aber gleichzeitig die Sicherheit der Patienten gewährleistet.

Die Diskussion über die Rolle von künstlicher Intelligenz im Gesundheitswesen war ein zentrales Thema auf der Konferenz der internationalen Agentur in Porto, Portugal. Dabei handelte es sich um eine Hauptbotschaft für die 53 Mitgliedsstaaten des europäischen Regionalbüros, wie der Regionaldirektor betonte.
Darüber hinaus sprach Dr. Kluge auch über zukünftige Gesundheitsbedrohungen und die Vorbereitungen für eine mögliche Ausbreitung von COVID-19 im kommenden Winter. Besondere Sorge bereitet ihm der Mangel an ausreichendem Gesundheitspersonal in vielen europäischen Ländern. Diese Herausforderungen erfordern eine vorausschauende und koordinierte Herangehensweise, um die Gesundheitsversorgung langfristig zu sichern.