ChatGPT in der Medizin

  • VIEWofTwo - Kolumne

Ein Thema – zwei Meinungen

Die einen sehen in der KI Anwendung ChatGPT den Durchbruch zu einer besseren Welt, die anderen den Untergang unserer kulturellen Errungenschaften. Was aber denken die klugen Köpfe bei VISUS, die sich natürlich mit dem Einsatz von ChatGPT ernsthaft auseinandersetzen müssen, um die eigene Softwareentwicklung frühzeitig in eine richtige Richtung zu lenken? 

Dr. Daniel Geue - VISUS

Bereichsleitung Forschung & Entwicklung

Dr. Daniel Geue

ChatGPT ist zweifelsohne eine der faszinierendsten Technologien der vergangenen Jahre. Gleichzeitig ist sie eine der fragwürdigsten – zumindest, wenn es um den Einsatz in der Medizin geht. Der Grund für meinen Grusel liegt darin begründet, dass ChatGPT Fehler und Fehlinformationen in geschmeidige und wohlklingende Worte verpackt.

Medizin basiert auf der Basis von wissenschaftlichen Erkenntnissen. Und Stand heute ist es nicht klar, wie diese wissenschaftlichen Erkenntnisse in die von ChatGPT generierten Ergebnisse einfließen – und ob sie es überhaupt tun. Es gibt Angaben, nach denen nur zwei Prozent des validierten wissenschaftlichen Wissens in die Antwortgenerierung einfließen. Und das klingt plausibel, bedenkt man, dass schon kleine Variationen in der Fragestellung zu komplett anderen Ergebnissen führen. Bedenklich finde ich vor diesem Hintergrund die Forderung einiger Gesundheits-(IT)-Experten, Technologien wie ChatGPT stärker einzubinden und die Entwicklung auf diesem Feld voranzutreiben, um international nicht den Anschluss zu verlieren. Mal ehrlich: Wir haben Mühe die elektronische Patientenakte und auf die Straße zu bekommen, sollen aber unsere Bemühungen verstärkt in ChatGPT stecken? 

Schon allein berufsbedingt bin ich großer Fan von Algorithmen, die dem medizinischen Personal das Arbeiten erleichtern. Bei dem Gedanken, ChatGPT – oder ähnliche Lösungen basierend auf dem gleichen Prinzip – in der medizinischen Diagnostik einzusetzen, bin ich allerdings skeptisch.

Martin Klingelberg - VISUS

Bereichsleitung Produktmanagement

Martin Klingelberg

Traue ich ChatGPT & Co. zu, eine Diagnose aus den von mir eingegebenen Symptomen zu ermitteln? Auf jeden Fall! Schließlich kann die berühmteste KI der Welt medizinische Staatsexamen bestehen, sofern man ihr die richtigen Fragen korrekt stellt. Vertraue ich der algorithmusbasierten Diagnose auch? Auf keinen Fall! Und zwar, weil ChatGPT keine Quellen offenlegt und aus den verfügbaren Informationen unter Umständen falsche Schlüsse zieht und möglicherweise halluziniert, also falsche Fakten schafft.

Bei allen Herausforderungen, vor die uns generative Textmaschinen stellen werden, und bei allen Änderungen, die sich daraus für unseren Alltag ergeben: Eine Medizin ohne Mediziner wird es nicht geben. Denn im Gegensatz zu ChatGPT kann meine Hausärztin sehen, fühlen, messen, fragen und untersuchen. Vor allem aber kann sie mir Empathie entgegenbringen, meine Sorgen ernstnehmen und auch nehmen.

Und trotzdem begrüße ich die Chancen, die uns generative Textmaschinen bieten (werden). Und ich bin optimistisch, dass wir Wege finden, diese klug und zum Nutzen aller – in unserem konkreten Fall der Patientinnen und Patienten – einzusetzen. Was die neuen KI-Lösungen für den Arbeitsalltag unserer Kundinnen und Kunden bedeuten werden, weiß ich heute noch nicht. Ebenso wenig, ob und wie sie Einzug in unsere Produkte halten. Meine Neugier treibt mich aber, mich auf diese Fragen einzulassen. Weil ich der Technologie viel zutraue. Und weil ich darauf vertraue, dass wir die Künstliche Intelligenz auch intelligent einsetzen werden.