Podcast Folge 4: Avatare, Analyse, Anamnese – wie KI die Gefäßchirurgie unterstützt
Moderation: PD Dr. Barbara Rantner
Gast: Prof. Dr. med. Martin Hirsch
KI trifft Klinikalltag: In Folge 4 spricht PD Dr. Barbara Rantner mit Prof. Dr. med. Martin Hirsch über künstliche Intelligenz in der Gefäßchirurgie – zwischen Empathie und Effizienz, Verantwortung und Vision.
Wie verändert KI die Medizin? Welche Anwendungen sind bereits im Einsatz? Und welche ethischen Fragen müssen wir dringend klären?
Ein spannender Blick auf das, was kommt – und was schon Realität ist.
Avatare, Analyse, Anamnese – wie KI die Gefäßchirurgie unterstützt
Themen in dieser Episode:
- Virtuelle Notaufnahme: KI-gestützte Ersteinschätzung in Marburg
- Patientengespräch mit Avataren – zwischen Skepsis und Akzeptanz
- Empathie: Können KI-Systeme menschlicher wirken als Ärzt*innen?
- KI in der medizinischen Ausbildung und Lehre
- Regulierung, Medizinproduktegesetz und ethische Leitplanken
- Die Rolle der KI bei Versorgungslücken im globalen Süden
- Ausblick: KI in Klinik und Praxis in fünf bis zehn Jahren
Weiteres zur Folge
Künstliche Intelligenz (KI) verändert die Medizin – rasant, tiefgreifend und auch in der Gefäßchirurgie. Was ist heute schon Realität, was bleibt Zukunftsmusik? Und was bedeutet diese Entwicklung für Empathie, Ethik und ärztliche Verantwortung?
In dieser Folge spricht PD Dr. med. Barbara Rantner mit Prof. Dr. med. Martin Hirsch, Humanbiologe, Kognitionsforscher und Leiter des Instituts für Künstliche Intelligenz in der Medizin an der Philipps-Universität Marburg. Gemeinsam werfen sie einen differenzierten Blick auf den praktischen Einsatz von KI in der Notaufnahme, die Rolle von Avataren in der Anamnese, den Wandel medizinischer Ausbildung und die Herausforderungen medizinischer Ethik in Zeiten intelligenter Systeme.
Wie verändert KI den Alltag in Klinik und Praxis? Welche Chancen bieten virtuelle Anamnesekabinen, Spracherkennung und Large Language Models? Was braucht vertrauenswürdige KI – und wie schützen wir uns vor Missbrauch?
Ein erkenntnisreiches Gespräch über Verantwortung, Vision und die Zukunft einer menschengerechten Medizin – ganz im Sinne des DGG-Mottos: „Wir denken Gefäße weiter.“
Themen in dieser Episode:
- Virtuelle Notaufnahme: KI-gestützte Ersteinschätzung in Marburg
- Patientengespräch mit Avataren – zwischen Skepsis und Akzeptanz
- Empathie: Können KI-Systeme menschlicher wirken als Ärzt*innen?
- KI in der medizinischen Ausbildung und Lehre
- Regulierung, Medizinproduktegesetz und ethische Leitplanken
- Die Rolle der KI bei Versorgungslücken im globalen Süden
- Ausblick: KI in Klinik und Praxis in fünf bis zehn Jahren
Fragen oder Feedback?
Sie möchten mit der Redaktion oder den Expertinnen und Experten Kontakt aufnehmen? Wir freuen uns über Ihre Nachricht an: podcasts(at)medizinkommunikation.org
Rantner: Herzlich Willkommen zu einer neuen Folge von Gefäße im Fokus. Mein Name ist Barbara Rantner. Die von Ihnen, die schon dabei waren, wissen das. Ich bin Gefäßchirurgin und Oberärztin am LMU Klinikum in München und freue mich, heute diesen Podcast wieder mit Ihnen gestalten zu dürfen. Dieser Podcast soll für Sie, liebe Zuhörerinnen und Zuhörer, eine Plattform bieten, um tief in die Themen einzutauchen, die unser Fachgebiet prägen und voranbringen. Gemeinsam mit unseren Gästen beleuchten wir die neuesten Entwicklungen in der operativen, endovaskulären und präventiven Gefäßmedizin und diskutieren aktuelle Themen aus Wissenschaft, Lehre, Klinik und Praxis. Ganz nach unserem Motto, „Wir denken Gefäße weiter“. Die heutige Folge widmen wir einem sehr präsenten und vor allem zukunftsträchtigen Thema. Es geht um künstliche Intelligenz in der Gefäßchirurgie. Ob OP-Planung, Qualitätskontrolle, Diagnostik oder Dokumentation, die Möglichkeiten der KI scheinen ja riesig und nahezu unbegrenzt, aber was davon ist heute schon Realität und was ist vielleicht wirklich Zukunftsmusik? Wann ist der Einsatz künstlicher Intelligenz sinnvoll und was kommt als nächstes? Worst case, braucht es in 20 Jahren uns Ärzte überhaupt noch? Dazu spreche ich heute mit einem der führenden Experten für KI in der Medizin, Prof. Dr. Martin Hirsch. Er ist Humanbiologe, Kognitionsforscher und Leiter des Instituts für Künstliche Intelligenz in der Medizin an der Philips-Universität in Marburg.
Lieber Herr Prof. Hirsch, herzlichen Dank, dass Sie gekommen sind. Ich freue mich auf das Gespräch mit Ihnen.
Hirsch: Ja, vielen Dank Frau Rantner, dass ich hier sein darf. Ich freue mich auch auf das Gespräch, auch wenn ich kein Gefäßchirurg bin, aber das Thema ist ja doch sehr breit.
Rantner: Sie haben das schon bei der Einleitung gesagt, Sie sind kein Gefäßchirurg. Ich kann dazu nur kontern, ich habe keine Ahnung von KI. Im Vorfeld haben wir diskutiert, wer denn das Gespräch führen könnte und ich habe gesagt, also das höchste an KI, was ich in meinem Leben habe, ist die Alexa meines Sohnes. Das ist nicht besonders viel KI bestimmt, so wie ich mir vorstellen kann, ist das nur irgendwie Spracherkennung. Ich mache nichts mit ChatGPT, ich schreibe alle Texte selber, ich habe noch nicht mal einen Kindergeburtstag mit ChatGPT organisiert. Also Sie sehen, es gibt bei mir persönlich schon sehr viel zu tun und deswegen ist es für mich eine besondere Freude, dass ich heute mit Ihnen das Gespräch führen darf. Gleich mal zum Einstieg: Mein Eindruck war so, mit der Veröffentlichung von ChatGPT, was ich jetzt schon erwähnt habe, 2022, wurde dieses Thema KI erst so richtig losgetreten. Vermutlich hat man sehr vieles im Hintergrund als Nichtinteressierte oder als Laie nicht mitbekommen, aber so mein Eindruck, und korrigieren Sie mich, ist, durch ChatGPT ist jetzt dann plötzlich alles künstliche Intelligenz. Was denken Sie dazu?
Hirsch: Der Eindruck täuscht nicht. Also es gab natürlich schon in den Jahren vorher viel Aktivität. Künstliche Intelligenz ist ja eh schon ein langes Thema und das kommt dann immer in Wellen wieder. Aber es waren vor allen Dingen zwei Entwicklungen, die klassische Machine Learning, KI vorangetrieben haben. Das war einmal, dass wir immer mehr Rechenleistung auch auf kleinen PCs und selbst auf Smartphones zur Verfügung haben. Und das Zweite war, dass sogenannte Software-Frameworks auf den Markt kamen, sodass auch normale Bürgerinnen und Bürger neuronale Netze trainieren konnten. Und das hat so ab 2019, wo diese beiden Dinge einfach sprungartig nach oben gingen, dazu geführt, dass in den Folge- drei Jahren etwa so viel publiziert wurde zu KI in der Medizin wie in den zehn Jahren vorher, was vor allen Dingen ein technologischer Sprung war. Aber in die Öffentlichkeit gekommen ist es tatsächlich erst mit ChatGPT. Und ChatGPT ist ja nichts anderes als die Anwendung dieser neuronalen Netze, dieser künstlichen technischen neuronalen Netze auf die menschliche Sprache. Also man nahm nicht mehr technische Signale von MRT-Geräten oder von Audioaufnahmegeräten oder von Kameras, sondern man nahm die menschliche Sprache als Eingangssignal für die neuronalen Netze. Und damit erschloss man dieser Technologie ein wichtiges Kulturartefakt der Menschen, nämlich die Sprache. Damit drücken sie halt aus, ihre Erfahrungen, sie schreiben sie nieder, sie machen Studien, veröffentlichen die Ergebnisse in Sprache. Und dadurch, dass man jetzt der KI dieses fundamentale Kommunikationsmittel der Menschen eröffnete, konnte man auch die KI den Menschen eröffnen. Und dadurch war der Zugang einfach viel leichter. Ich kann mich heute einfach mit KI-Systemen unterhalten. Und von daher täuscht das nicht, dass eigentlich mit diesen sogenannten Large-Language-Models und das erste war halt ChatGPT von OpenAI die eigentliche Sichtbarkeit der KI in der Öffentlichkeit kam.
Rantner: Sie sind, wie ich schon eingangs erwähnt habe, Leiter des Instituts für Künstliche Intelligenz in der Medizin an der Philipps-Universität Marburg. Klar wissen wir alle, die wir da in der Medizin tätig sind, dass KI uns sehr intensiv begleitet und begleiten wird, vor allem zukünftig. Aber vielleicht können Sie uns mal einen Einblick geben, wie denn Ihr Alltag aussieht und was Sie jetzt ganz konkret machen, was ein ganzes Institut mit Arbeit befüllt, sozusagen.
Hirsch: Ja, hätten wir einen Videopodcast, würde man jetzt sehen im Hintergrund, kann man aus dem Fenster rausgucken und sieht den Eingang vom Klinikum. Ich sitze hier in ganz zentraler Lage am Uniklinikum in Marburg. Wir haben so vier Schwerpunkte, an denen wir arbeiten. Das ist zum Beispiel die medizinische Ersteinschätzung in der Notaufnahme. Also wenn ein Mensch fußläufig jetzt hier ins Klinikum kommt und Hilfe sucht, dann unterhält er sich kurz mit einer MFA. Die checkt ab, wie dringlich ist das? Also ist der Status rot? Also muss er unmittelbar, der Patient, die Patientin, einen Arzt, eine Ärztin sehen? Oder haben wir ein bisschen Zeit? Und sobald wir ein bisschen mehr Zeit haben, das nächste Intervall ist dann ja neun Minuten, kann man die Patientin, den Patienten in eine so eine Telefonzellenähnliche Kabine setzen und da unterhält sie sich einfach mit einer künstlichen Intelligenz. Das ist so ein Avatar auf dem Monitor. Über dem Avatar sind so Video- und Sensorgeräte, die messen Vitalparameter des Patienten kontaktlos. Wir haben auch ein Pulsoximeter angeschlossen am Finger. Dann erfolgt einfach eine Anamnese und da macht sich die KI ein Bild davon, habe ich nur diese neun Minuten oder habe ich 35 Minuten und dann würde eine richtige, lange, ausführliche Anamnese erfolgen. Und wir haben das jetzt gerade vor ein paar Wochen, vor dem Internistentag in Wiesbaden mit 30 Patient:innen ausprobiert und das reichte von einem 17-jährigen jungen Mann bis zu einer 87-jährigen Dame und waren wirklich verblüfft, wie gut diese Technologie auch bei den Patienten und Patientinnen angekommen ist. Weil ich meine, die kommen ja in die Notaufnahme, weil sie Not haben. Und die wollen dann natürlich eigentlich erwarten, sie jetzt mit einem Menschen zu sprechen und unterhalten sich dann mit so einer komischen, mit so einem Avatar. Aber ich war wirklich erstaunt. Und die alte Dame sagte dann, ja, also ich fand das sehr angenehm, weil wenn ich mit dem Herrn Doktor rede, habe ich immer das Gefühl, der hat ja keine Zeit und ich will dem ja die Zeit nicht wegnehmen. Die hat also sofort verstanden, dass KI keine Zeitnot hat und sie sich da auch mehr Zeit lassen kann. Also da waren wir sehr verblüfft. An solchen Dingen arbeiten wir. Eine andere Sache ist Diagnoseunterstützung hier im Zentrum für unerkannte und seltene Erkrankungen. Da kriegen wir ja dann ja Patienten und Akten, die wirklich also zum Teil also 50, 60, 70 Zentimeter dick sind. Und da muss sich dann ja irgendeine Fachärztin hinsetzen und auf Seite 1 anfangen, da durchzublättern und sich ein Bild zu machen. Und das kann man eben enorm gut mit KI unterstützen. Und da sind die ersten Ergebnisse auch wunderbar. Und das dritte große Thema bei uns ist Vertrauenswürdigkeit. Also wie können wir Vertrauenswürdigkeit von medizinischen KI-Systemen sicherstellen und sicher kommunizieren? Weil Vertrauen ist ein so zentrales Gut in der Medizin, dass wir das von Anfang an in den Blick nehmen müssen. Und das ist eigentlich auch einer unserer Schwerpunkte hier.
Rantner: Das klingt ja wahnsinnig spannend. Ich muss, glaube ich, mal bei Ihnen vorbeischauen, mir diese virtuelle Ambulanz, sozusagen, ein bisschen genauer unter die Lupe nehmen. Das Thema Verantwortung würde ich vielleicht gerne nochmal und Vertrauen würde ich vielleicht gerne nochmal aufgreifen. Weil wie Sie sagen, es überrascht mich jetzt ein bisschen, dass die alte Dame das für so gut befunden hat, dass sie von einem Computer sozusagen betreut wird. Weil das, was man ja eigentlich auch als gute Arztfähigkeit bislang immer unterstellt hat, ist die Empathie. Der kann das Zwischenmenschliche auch gut erfassen. Der weiß, wie er mit den Leuten umgehen soll. Der geht auf den Patienten ein. Klar, die Patienten merken das zunehmend. Es besteht Zeitdruck. Es gibt da Kolleginnen und Kollegen mit Sprachbarrieren durch die Berufsgruppen hindurch. Und natürlich erleichtert KI auch da die Zusammenarbeit. Aber wie können Sie das sicherstellen? Also erstens einmal so, dass die neun Minuten tatsächlich ausreichen, dass KI das richtig erkennt, dass da nicht doch in der Zwischenzeit wirklich was passiert. Und das andere, wie geht es wirklich dann nachhaltig um die Vertrauenswürdigkeit?
Hirsch: Wir hatten einen kleinen Vorversuch Sommer letzten Jahres auf der Bundesgartenschau in Mannheim. Da stand eine Telefonkabine auf dem Bürogelände. Da ging es ja um diese Sustainable Development Goals. Und da waren wir auf dem, hatten ja so einen kleinen Stand, so einen kleinen Garten über Technologie und Zukunftstechnologien. Und da ging es um Kunst auf der einen Seite und um Medizin auf der anderen Seite. Welche Rolle wird da KI spielen in der Kunst und in der Medizin? Und da hat man eine Telefonzettel, da konnte man sich mit einem Vorläufer von diesem Avatar unterhalten. Und das haben auch 8000 Menschen getan. Die wussten, dass das ein Experiment der Uni Marburg ist und haben dann aber breitwillig Auskunft gegeben. Und einige davon, einige hundert haben wir dann abgegriffen und die nochmal interviewt. Und da war auch eine Frage, „vertrauen Sie diesem Avatar?“. Und da waren die Zustimmungsraten weit, also nahe bei 80 Prozent. Und die Begründung dafür, dass sie vertrauen, war aber nicht, „ja, der redet so eloquent“ oder „ja, das hört sich alles sehr plausibel an“ oder „ja, der redet ja sehr eigentlich genau wie ein Arzt oder eine Ärztin“. Es muss gar nicht immer unbedingt das Inhaltliche sein. Und das ist eine gute Nachricht und das ist eine schlechte Nachricht. Es gibt uns auch der Universitätsmedizin zusätzliche Verantwortung, natürlich. Aber es ist auch eine schlechte Nachricht, weil natürlich solche Hinweise, Reize auch gefakt werden können. Und davor müssen wir halt die Bürgerinnen und Bürger schützen.
Aber nochmal zu Ihrem anderen wichtigen Punkt mit der Empathie. Also es gibt ja inzwischen leider Studien, die sehr, also mehrere, die eindeutig belegen, dass die Antworten von KI-Systemen als empathischer empfunden werden als die Antworten der Vergleichsgruppe der Ärztinnen und Ärzte. Das wundert mich aber gar nicht, denn wir bringen den Medizinstudierenden im Studium gar nicht bei, wie sie empathisch reden sollen, wie sie die Kommunikation mit dem Patienten, der Patientin wirklich gestalten sollen. Was mache ich, wenn eine Patientin, ein Patient sich plötzlich vor mir einnässt und anfängt zu weinen, weil ihm das so peinlich ist? Wie gehe ich mit so einem Menschen in so einer Notsituation um? Wie rede ich darüber, wenn ich eine unangenehme Diagnose verkünden muss oder darüber reden muss über die verschiedenen Therapieoptionen? All das lernen wir im Medizinstudium ja nur am Rande. Und da muss man schon auch eine Kritik üben.
Alles, was im Moment im Curriculum der Medizinerinnen steht, wird KI in nicht allzu ferner Zukunft besser können als wir Menschen. Und deswegen müssen wir da auch Dinge reinschreiben in die Ausbildungsverordnung, die eine KI nie können wird, nämlich zwischenmenschliche Kommunikation zum Beispiel. Ja, das sind unsere Stärken. Aber ich verstehe auch, dass das im aktuellen Curriculum in Deutschland keine so große Rolle spielt. Aber wenn ich gefragt werde, wie bereiten wir denn Ärztinnen und Ärzten auf die Zukunft der KI-Medizin vor? Und da sage ich immer ja, Empathie lernen. Also wir haben da auch Nachholbedarf bei der Ausbildung von den Menschen. Und nein, ich glaube tatsächlich, dass KI enorm empathisch rüberkommen wird. Empathischer als echte Menschen. Und ich könnte Ihnen hier so Avatar-Videos zeigen, wo einfach, ja, das ist heute praktisch nicht mehr zu unterscheiden von Menschen. Also auf sowas sollten wir uns nicht verlassen. Und umso wichtiger ist es, dass es immer eindeutig erkennbar ist, dass die Entität, die ich hier auf dem Bildschirm sehe, eine KI ist und nicht ein Mensch. Dass der Mensch immer sehen kann, ob er mit einer KI redet oder nicht. Das ist ja zum Beispiel eine der zentralen Forderungen der KI-Verordnung oder des EU-AI-Acts. Und das ist wahnsinnig wichtig, weil wir werden es nicht mehr unterscheiden können. Das geht so weit, ich weiß nicht, ob Sie Kinder haben, ich habe zwei Töchter. Ich könnte hier eine Videokonferenz mit meiner Tochter faken, die ich nicht mehr von meiner Tochter unterscheiden kann. Und das öffnet halt doch auch viel Raum für Missbrauch. Und das muss einfach gesetzlich reguliert werden.
Mal auf Ihre, Entschuldigung, auf den medizinischen Teil Ihrer Frage. Ich hatte das schon erwähnt, dass wir, wir haben einen Bildschirm, da ist sozusagen ein androgynes Wesen zu sehen, was sich nicht eindeutig auszeichnet als KI. Das, das sage ich meinen Entwicklern hier X-mal, der muss irgendwie kenntlich sein. Das ist es aber noch nicht. Also insofern dürfte ich es gar nicht betreiben, so ungefähr. Aber da drüber ist halt ein Sensorpanel. Und in diesem Sensorpanel werden so verschiedene Sachen gemessen, Körperkerntemperatur und so weiter. Aber eben auch der Gesichtsausdruck. Und der Anspruch, den wir dabei haben, ist, dass der Gesichtsausdruck des Patienten gelesen und interpretiert und zur Anamnese herangezogen wird. Und gleichzeitig auch der Steuerung des Gesichtsausdrucks des Avatars dient. Das heißt, wir verkuppeln die beiden Systeme. Also wir nehmen die Physiognomie und die Mimik und auch die Prosodie, also die Art, wie sie Sätze reden, wie laut, wie kraftvoll, wie betont und so weiter. All das wird ausgewertet und dazu genutzt, sich ein Gesamtbild des Gegenübers zu machen. Und umgekehrt nutzen wir diesen Kanal, um auch ein Gesamtbild des Avatars an den Patienten zu kommunizieren. Also insofern kann man das auch in einem medizinischen Kontext, wo ja all diese Dinge einfach eine große, also wichtig sind für die Interpretation des Gesamtzustandes, gut nutzen, muss aber immer tun, dass man hier nur eine Technologie ist und kein echtes Wesen.
Rantner: Also ich bin wahnsinnig beeindruckt, zugleich auch etwas besorgt, ehrlicherweise jetzt schon, ob diese rasanten Entwicklungen. Ich dachte, wir unterhalten uns hier über Dokumentationssysteme und Erleichterung bei der Aufklärung und solche Dinge. Aber über das sind wir offensichtlich ja schon längst hinweg. Die Frage jetzt nochmal zurück zu dieser Anwendung und der Avatar muss als künstliche Intelligenz erkennbar sein. Eigentlich ja nicht, wenn er ja so vertrauenswürdig ist für den Patienten und das in diesem professionellen Rahmen hoffentlich ja schon begleitet von Fachpersonal stattfindet, das Ganze. Dann spielt es ja jetzt vielleicht nicht so die zentrale Rolle, meiner Meinung nach. Ich verstehe natürlich die ganzen Regulatorien von gesetzlicher Seite. Aber wenn sich die Leute am Avatar, der auf die Reaktion und das Verhalten des Patienten ja dann auch wieder gleichzeitig reagiert, was ich ja echt fantastisch finde, einlassen, wenn sich die Patienten darauf einstellen können, dann ist das ja eigentlich ein Win-Win-Situation im Zeitalter von Ärztemangel, im Zeitalter von Ressourcenmangel, im Zeitalter nicht nur Zeitmangel, sondern insgesamt. Also Räumlichkeiten und Krankenhausstruktur, Neugesetz und so weiter. Also das ist ja was, was uns wahnsinnig in der Medizin gesundheitspolitisch auch vorwärtsbringen könnte. Ist das, was Sie jetzt da erzählt haben, ist das was, was tatsächlich nur hinter verschlossenen Türen, also jetzt bei Ihnen lokal in Marburg gelingt? Oder ist das jetzt schon was, was kurz vor Verbreitung steht? Und könnte man sich darauf einstellen, dass das in den nächsten drei, vier, fünf Jahren der breiten Öffentlichkeit auch zugänglich sein wird?
Hirsch: Das ist definitiv das Ziel. Die Technologien dafür sind da. Die ist es eher eine Frage der Regulatorik. Also wie gehen wir mit solchen Systemen in der Zulassung um? Wir sind ja innerhalb der Medizin, also innerhalb von Praxen und von Kliniken relativ gut geschützt durch das Medizinprodukte-Gesetz. Jeder technische Apparat, der im Kontext der Patienten irgendwas messen soll oder zum Einsatz kommt, ist ein Medizinprodukt. Das regelt der Gesetzgeber so. Und der muss deswegen durch die Medizinproduktregulatorik durch oder -Zertifizierung durch. Und das gilt natürlich auch für die künstliche Intelligenz. Das heißt, künstliche Intelligenz innerhalb des Medizinsystems unterliegt diesen Regulatorien und die Medizinprodukte, das Medizinprodukte-Gesetz hat zwei Dinge im Blick, nämlich einmal Begrenzung von Risiken. Das heißt, ich muss als Hersteller von einem solchen System alle möglichen Risiken aufzeigen, die mit dem Gebrauch dieser Maschine im klinischen Alltag verbunden sind und muss zeigen mit Protokollen, wie ich diesen Risiken begegne und wie groß diese Risiken sind. Das ist das eine. Und das andere ist, ich muss eine Zweckmäßigkeit des Gerätes definieren, sicherstellen, nachweisen, dass das Gerät diese Zweckmäßigkeit auch erfüllt, also dass es den Zweck erfüllt, für den es gebaut ist. Und dadurch sind zwei große Bereiche von Missbrauchsmöglichkeiten von KI schon mal eliminiert.
Also über Medizin und KI-Systeme innerhalb unserer medizinischen Systeme mache ich mir relativ wenig Sorgen. Das wird ein bisschen Einschwingen dauern, aber das wird kommen und das wird auch relativ sicher sein. Und die KI-Kabine hatten wir jetzt in einem ersten Pilotversuch getestet. Wir rollen das jetzt noch aus. Wir bauen jetzt mehrere Kabinen und tun ja in andere Universitätskliniken und testen da gemeinsam sozusagen dann auch, weil andere Kliniken haben andere Klientele. Und wir hoffen schon, dass wir Ende nächsten Jahres dann solche, die Kabinen auch wirklich in den Routinebetrieb übernehmen können. Also nur vom Zeithorizont her.
Was mir aber wirklich Sorge bereitet, sind die medizinischen Anwendungen außerhalb des ärztlichen Bereichs und der Kliniken. Die machen mir Sorgen, denn die sind unreguliert. Und nicht in Europa, aber sehr wohl in den anderen Ländern, auch in Amerika, dort, wo ja die Haupt-KI-Entwicklung stattfindet. Und diese ethische Unreguliertheit auch von gesundheitsbezogenen KI-Anwendungen, die macht mir Sorge, weil Ottonormalverbraucher wendet sich, das wissen wir heute, zunächst mal an Dr. Google oder in Zukunft Dr. KI und ist damit diesem System ausgeliefert. Und wie ich schon schilderte, man kann sehr plausible, redende, nach Arzt aussehende KI-Figuren da reinstellen. Die sehr eloquent reden in meiner Muttersprache. Und aber welchen ethischen Rahmen die sich verpflichtet fühlen und was die für eine Motivation haben. Also was ist das, nicht das Geschäftsmodell dahinter, aber was ist der Antrieb? Das ist einfach schwer. Das muss auch regulatorisch wirklich in den Griff gekriegt werden. Und die EU probiert das mit dem EU-AI-Act oder der sogenannten in Deutschland KI-Verordnung. Aber die Amerikaner haben oder Donald Trump hat ja am 21. Januar jegliche ethische Rahmen von KI einfach gecancelt und nicht nur außer Kraft gesetzt, sondern gelöscht, die Webseite gelöscht, wo man das früher im Weißen Haus runterladen konnte. Und also das ist schon eine Kriegserklärung an ethische Rahmung. Und da liegt meine Hauptsorge.
Rantner: Da könnten ja vielleicht tatsächlich die überbordenden, teilweise ja Regularien in Deutschland, dann sich positiv auswirken, wenn man sich nur erinnert, wie lang es gedauert hat, bis diese elektronische Patientenakte dann tatsächlich Verbreitung finden konnte. Dann hat man doch vielleicht eine gewisse Skepsis, wann das dann flächendeckend wirklich also von gesetzlicher Seite her möglich sein wird, dass KI in den Krankenhäusern, öffentlichen Gesundheitsanstalten dann verwendet werden kann.
Ich möchte Sie dazu in dem Zusammenhang noch etwas fragen. Das war so das Erste mitunter, was ich selber verstanden habe, weil bei meiner Hautärztin letztes Jahr war und die ja natürlich auch schon KI gestützt meine Muttermale inspiziert hat und mir gesagt hat, „ja, wir schicken das dann weg und dann wird das alles ausgewertet und sie kriegen eine detaillierte Rückmeldung“. Wird sich das, also das kann man sich ja auch sehr gut als Mediziner vorstellen, dass natürlich eine Maschine das Muttermal adäquat und genau erkennt. Das wird befüttert und kann dann Böse von Gut unterscheiden sozusagen. Aber wie wird sich das haftungsrechtlich Ihrer Meinung nach in den nächsten Jahren entwickeln? Wenn ich jetzt, sagen wir Dermatologe, Ende 50, sitze in meiner Praxis, mache das, was ich seit vielen Jahren gemacht habe und plötzlich gibt es diese neue Technologie, die offensichtlich Behandlungsvorteile bringt. Aber ich möchte sie nicht benutzen, weil mir ist das zu kompliziert und die Software und da bin ich nicht mehr vernetzt. Kann sich das auswirken? Wird es auch dazu Regularien geben oder wie ist dazu der Stand?
Hirsch: Das ist natürlich im Aufbau und im Umbau und so weiter, die KI entwickelt sich ja so schnell, da kommt der Gesetzgeber ja wirklich kaum hinterher. Aber im Moment ist die Rechtslage wohl etwa so, dass KI kann in Deutschland keine juristische Person sein. Deswegen kann sie auch nicht haftbar gemacht werden, weil Haftbarkeit beruht darauf, dass ich eine abschreckende Wirkung durch Gefängnisstrafen, Geldstrafen und so weiter habe. Und dadurch, dass es keine Rechtsperson ist und niemand, den man ins Gefängnis stecken könnte oder dem man Geld vom Konto abholen könnte, ist da nichts zu holen. Und deswegen wird es keine juristische Person werden, so der Deutsche Juristentag. Herr Trump hat jetzt gerade ein Gesetz erlassen, wo eine KI wie ein Arzt, wie eine Ärztin Medikamente verschreiben darf. Ohne, dass ein Mensch da noch mal drauf geguckt hat. Ich weiß nicht, wie der Gesetzentwurf da durchkommen will und wer dann die juristische Person ist und so weiter. Aber den Gesetzentwurf gibt es und der ist auf den Weg gebracht. Das heißt, es gibt Tendenzen auch der KI durchaus der Persönlichkeit und so weiter zuzuweisen. Und wer dann haftet, das muss dann der amerikanische Gesetzgeber sagen. In Deutschland ist es eindeutig, die KI kann nicht haften und deswegen wird immer derjenige in Haftung genommen, der das Ding gebaut hat oder der es in den Verkehr gebracht hat. Und derjenige, der es in den Verkehr gebracht hat, das muss ja nicht derselbe sein, der es gebaut hat, der übernimmt einfach Verantwortung dafür. Er sagt, dadurch, dass er es in den Verkehr bringt, das taugt und den kann man bis zu einem gewissen Grad haftbar machen. Und der wäre der Erste, an den man sich wendet. Und der sagt dann, ich habe nach all den Regularien, die mir auferliegen, Sorgfaltspflicht und so, habe ich gehandelt. Das ist ein zugelassenes Medizinprodukt, das habe ich kontrolliert und so weiter. Mich trifft hier keine Schuld, sondern das war ein grober Fehler beim Hersteller. Und dann muss dieser grobe Fehler dem Hersteller nachgewiesen werden. Und das heißt, da verhält sich KI eigentlich genauso wie jedes andere Medizinprodukt auch, was Haftungsfragen betrifft. Von daher ist das, glaube ich, relativ sicher.
Die Frage, die Sie und wie Sie sie gestellt haben, geht ja aber noch auf einen anderen Case. Da ist die Rechtsprechung auch eindeutig. Ärztinnen und Ärzte dürfen selber entscheiden, was sie tun und was sie nicht tun, da sind die autonom. Aber sie sind bis zu einem gewissen Grad auch verpflichtet, sich um den State of the Art einer Therapie zu kümmern. Und sie können sich nicht darauf zurückziehen, ich mache das seit 20 Jahren so. Und es hat immer funktioniert, wenn inzwischen eine viel bessere Therapie auf den Markt gekommen ist, die sich rasend schnell etabliert, weil sie eben vielleicht sogar kostengünstiger und effektiver ist und weniger Nebenwirkungen hat. Dann ist ein Arzt, eine Ärztin bis zu einem gewissen Grad verpflichtet, eine solche Therapie auch anzubieten. Zumindest den Patienten zu informieren, dass es die gibt und dem Patienten die Entscheidung zu überlassen. Das ist rechtlich so geregelt und das gilt auch für KI-Systeme. Wenn also der Fall eintritt, den Sie da eben geschildert haben, und das ist ja tatsächlich so, dass diese KI aus Heidelberg ein Melanom besser erkennt als 137 von 156 Dermatologen, dann kann man natürlich irgendwann sagen, wenn ich im Zweifel bin, ob das ein Melanom ist oder nicht, dann nehme ich halt mein Smartphone und teste und hole mir eine Zweitmeinung. Das ist heute noch nicht der Fall, aber das wird irgendwann der Fall sein, dass KI einfach bestimmte Dinge so viel besser kann als wir Menschen, dass es sich recht schnell verbreitet und dann kann ich als Arzt, Ärztin mich dem nicht mehr verschließen und dann muss ich es auch einsetzen oder anbieten.
Rantner: Das könnte ja dann auch mehrere Bereiche in der Medizin treffen. Wenn man jetzt mal vordergründig an die Radiologen denkt, die scheinen ja in absehbarer Zeit, ohne jetzt da negativ sein zu wollen, also in absehbarer Zeit verzichtbar, ist man ja dann doch froh, wenn man ein Handwerk gelernt hat, unter Anführungszeichen, wenn man chirurgisch tätig ist und nicht nur ausschließlich Diagnostik. Aber auch bei uns in der Gefäßchirurgie gibt es sehr viele Szenarien, wo wir uns vorstellen könnten, dass wir durch Unterstützung von KI den Progress, Behandlungsvorteile, Diagnosesicherung und so weiter schon rasch vorantreiben könnten. Wir arbeiten viel mit Bildmaterial. Das sind viele kontrastbildgestützte Vorgänge, die wir im täglichen Alltag haben. Es geht zum Beispiel um Ruptur, Vorhersage von Aortenaneurysmen, um so hämodynamische Modelle und solche Dinge, wo man sich auch wünschen würde, ehrlicherweise, dass man ein bisschen vorwärts kommt in den ganzen Behandlungspfaden der Patienten. Können Sie uns dazu kurz was sagen, wie Sie das einschätzen und ob sich die KI jetzt in allen Bereichen der Medizin mit gleicher Macht einbringen wird oder ob es schon Bereiche geben wird, wo es nur Schwierigkeiten hat? Ich könnte mir vorstellen, dass zu große Datenvolumina vielleicht auch nur einen gewissen Hemmschuh darstellen. Der Transport von Bildern und diese Zugänglichkeit der Aufnahmen und die Größe der Daten einfach, die uns da vielleicht auch noch ein bisschen reguliert.
Hirsch: Also grundsätzlich ist es genau umgekehrt. Zu viel Daten ist unwahrscheinlich. Die Mehrzahl, die einschränkend wirkt, der Fälle, die eingeschränkt sind, ist es, weil zu wenig Daten da sind. Es gab ja von Herrn Behrendt eine sehr hübsche Übersichtsarbeit letztes Jahr über KI in der Angiologie oder Gefäßchirurgie, in dem Fall. Der hat ja auch sehr schön aufgezeigt, was da alles schon an Studien läuft. Wobei man sagen muss, da ist KI noch nicht mal gefragt. Das ist meistens reines Data Science oder Machine Learning, einfaches Machine Learning und Clustering von Daten. Und die sind eben sehr datenintensiv, weil ich brauche qualitativ hochwertige Daten, sowohl auf der Trainingsseite von der KI und dann aber auch wieder für die Testseite. Und das dürfen halt nicht dieselben Daten sein. Deswegen brauche ich immer ein paar Hundert, paar Tausend Fälle. Je nachdem, wie hoch der Komplexitätsgrad des Problems ist, brauche ich mehr oder weniger. Aber unter ein paar Hundert wird es eigentlich immer schwierig. Und da schreibt er zu Recht - sehr interessante Hinweise. Aber es war halt nur „N“ war halt 90. Deswegen können wir da noch nicht so viel zu sagen. Aber es ist vielversprechend. Und das zieht sich eigentlich auch durch die ganze Publikation so durch. Und das ist tatsächlich so ein Kardinalproblem, was wir haben in Deutschland, dass wir halt doch sehr... Nein, das ist nicht richtig. Also wir haben eine Schwierigkeit, dass wir eben so bewusst und verantwortungsbewusst mit den Daten umgehen und manchmal so bewusst, dass wir dann lieber nicht nutzen, als sie doch zu nutzen. Und das ist nicht schlecht. Und das ist auch aufgrund des Vorhergesagten auch durchaus sinnvoll. Wir müssen die Vertrauenswürdigkeit einfach absichern. Aber es führt eben dazu, dass wir häufig zu wenig Datensätze haben. Und die Qualität, gerade im Data-Science-Bereich, wird eben einfach immer besser, je mehr Datensätze wir haben. Und das gilt auch für diese Prognostiken, die Sie da eben angesprochen haben. Also wie hoch ist sozusagen die Wahrscheinlichkeit, dass ich ohne Amputation überlebe und so weiter. Das sind ja alles wichtige Themen auch für den Patienten. Und von daher wäre das schon gut, wenn wir da zusätzliche Hilfsmittel hätten. Und sein Fazit war damals ja, wenn ich das richtig erinnere, dass er sagte, eigentlich haben all die Studien, die er betrachtet hat, gezeigt, dass solche Machine Learning-Ansätze validere Prognostik erlauben, als die klassischen statistischen Regressionsanalysen. Und das ist ja schon mal ein gutes Indiz, dass es sich lohnt, hier weiterzumachen. Dass man eben sagt, wir müssen Register aufbauen. Wir müssen mehr Daten sammeln. Wir müssen Datenpoolen aus verschiedenen Universitätsklinika zusammen publizieren, weil wir dann einfach mehr Daten haben und die Aussagekraft und die Prognostik einfach deutlich besser wird. Also es gibt viele Anzeichen, dass auch in der Gefäßchirurgie man von solchen KI-Systemen oder Anfängen von KI-Systemen lernen kann. Aber man braucht halt die Daten dafür.
Herr Behrendt schrieb dann so lustig, war dann so ein kleiner Kasten, so ein Take-Home-Message. Da schrieb er dann so, dass generative Technologien wahrscheinlich, also Large Language Models eigentlich dazu dienen oder nützlich sein könnten für Patientenaufklärung, Patientenberatung. Ja, da hat er recht. Das ist richtig. Aber es ist natürlich mitnichten die einzige Einsatzzweck von diesen Technologien. Ich meine, er hat sich sehr auf Data Science und die klassischen Machine Learning Algorithmen konzentriert. Aber diese Large Language Models, die werden halt alle Literatur gelesen haben. Und entsprechend kann ich mich dann auch mit denen unterhalten.
Und ich mache mal noch eine andere Anwendung, die wir hier entwickelt hatten, die einfach bei Ärztinnen und Ärzten enorm gut ankommt. Das war so ein Leitlinien-Bot. Das heißt, ich habe den einfach trainiert auf den Leitlinien. Und zwar egal, ob amerikanische oder deutsche oder französische, spielt alles keine Rolle. Man nimmt einfach die guten, also richtig gute Leitlinien, gibt dir den Bot und sagt, pass auf, Large Language Model, du darfst mir nur Antworten generieren auf der Basis der Informationen, die du in diesem Pool von Dokumenten findest. Und wenn du davon abweichst, sag mir Bescheid. Und das machen die dann auch. Und dann chatte ich praktisch wie mit einem Kollegen, chatte ich mit der Leitlinie. Das heißt, ich stelle eine Frage, wie Sie das auch kennen von KI-Systemen, kriege eine Antwort und rechts daneben stehen dann immer kurz hinterlegt oder je nachdem, wie man das System anbaut, die Passagen aus der Leitlinie. Und das schafft natürlich eine sehr leichte Zugänglichkeit zu Leitlinien. Und das gilt natürlich auch für Patienten. Auch Patienten werden sich mit Leitlinien unterhalten können. Und dann sagt man der KI, rede bitte in einfachem Deutsch, weil ich bin ein Patient und ich kann das fachchinesisch nicht, versuche also einfach mit mir zu reden, dann redet die halt einfach. Und wenn ich sage, rede bitte syrisch mit mir, dann redet sie halt syrisch. Und von daher ist da ein großer Gestaltungsspielraum, was Patientenaufklärung und Patientenberatung auch für Therapiestrategien betrifft. Und ich glaube, das wird eine der Anwendungen sein, die wir auch sehen werden, auch in Hausarztpraxen. Wir haben viele Hausärzte, die anfragen wegen der Ambulantisierung und ich schicke die dann zum Facharzt, dann kriege ich den Arztbrief zurück. Und das ist so komplex heute geworden, dass ich mich da ja auch, das muss ich ja auch erst mal verstehen. Und dann ein Aufklärungsgespräch machen, das kostet einfach viel Zeit. Und das kann auch eine KI in so einer Kabine machen. Da sehe ich dann den Avatar, meinen persönlichen Avatar. Der Patient sieht ja genauso aus wie der Herr Hirsch. Gut, ich dürfte es nicht, weil ich kein Arzt bin, aber das geht heute. Und das werden wir auch testen hier in Marburg in derselben Kabine wie die Ersteinschätzung, dass man auch Patientenaufklärung und Patientenberatung individualisiert für diese Befunde, die der Patient halt hat, vornehmen kann. Und dann kann der Patient das auch machen, auch zu Hause auf dem Sofa, unterhält er sich einfach mit diesem Arzt-Avatar. Die Angehörigen sitzen dabei und haben dann auch eine Frage und dann wird das alles sozusagen diskutiert. Und da ist halt kein Zeitdruck. Klar muss der Arzt, weil es unter dem Arztvorbehalt steht, die OP-Aufklärung steht ja unter Arztvorbehalt, der muss natürlich sich nochmal mit dem Patienten unterhalten. Aber der Patient kann mit viel weniger Zeitdruck sich schon mal vorinformieren, auch individuell für seinen Fall und kommt dann zu Ihnen und dann ist das Gespräch natürlich, Sie müssen sich dann nur noch kurz da vergewissern, ob der das auch wirklich verstanden hat. Sie kriegen von der KI den Report, was haben die alles gefragt. Aber dann sind Sie halt schon, wissen Sie, dass der Patient schon gut vorinformiert ist.
Rantner: Ja, das wäre eine Frage gewesen von mir, ob das dann mit chirurgischen Aufklärungen auch anwendbar ist und wer es dann unterschreiben muss tatsächlich. Aber klar, wie Sie gesagt haben, die Vorzüge der Vorbereitung sind ja unübersehbar. Das würde natürlich auch für die Lehre wahnsinnig viel erleichtern und für die Ausbildung für Studentinnen und Studenten. Ist das bei Ihnen auch schon in Anwendung für Medizinstudierende?
Hirsch: Genau, wir kombinieren das jetzt auch so mit VR- oder XR-Systemen. Das heißt, ich komme in einen Raum virtuell mit so einer Brille vor der Nase und dann stehe ich in so einem VR-Raum und da kann ich dann auch richtig mich mit Patienten unterhalten. Und man kann da auch lustige Spiele machen, also man kann ja beide Gespräche üben. Also wir haben dann einen Avatar, der ist der Patient, den nehme ich halt normalerweise um Studierende zu trainieren, und ich habe einen anderen Avatar, der soll Arzt sein, der soll lernen, Patienten zu interviewen und herauszufinden, was hat der. Und dann können sie sich auch die eine KI mit der anderen KI unterhalten lassen. Und das ist sehr witzig, den Dialog zwischen denen sich anzuhören. Und da kann man wirklich lustige Sachen machen. Aber ja, genau, die Studierenden empfinden das auch als sehr angenehm, weil die KI analysiert dann auch die Prosodie, also war er zugewandt, hat er langsam genug geredet und war das verständlich? Also da kann man schon eine Menge machen und das wird von den Studierenden gut angenommen.
Rantner: Ich bin wahnsinnig beeindruckt. Ich habe jetzt fast ein bisschen Hemmungen, Sie zu fragen, wenn Sie jetzt mal groß denken könnten, weil das alles, was Sie mir jetzt erzählt haben, war schon so total außerhalb meiner Vorstellungskraft, dass wir wirklich so nah dran sind. Gut, Sie machen das jetzt bei Ihnen im Institut, aber alles schon wirklich auf Anwenderbasis und der Frage des Zeitraums von ein bis zwei Jahren, bis das für die allgemeine Medizinversorgung zugänglich sein wird. Aber wenn Sie jetzt selber mal wirklich groß denken könnten oder müssten, was sind so Ihre Visionen, wie es tatsächlich weitergehen wird in der Medizin jetzt in den nächsten, sagen wir mal, zehn Jahren? Ist vielleicht zu viel? Ist zu viel? Fünf Jahre besser?
Hirsch: Ja, es ist tatsächlich sehr schwierig. Ich bin von Natur aus irgendwie, war ich immer optimistisch und deswegen bin ich auch in diesen Bereich gegangen, weil er eben so viele Opportunities oder positive Entwicklungsmöglichkeiten bietet. Allerdings, wenn man sich dann so auf der anderen Seite die Leistungsfähigkeit dieser Maschinen anschaut und dann sieht, wie ein Herr hinten, der letztes Jahr den Nobelpreis, also Google-Chefentwickler KI, der den Nobelpreis ja bekommen hat, weil er eben so grundlegende Arbeiten für diese KI gemacht hat, dass der vorzeitig von seinem Posten zurücktritt, weil er sagt, wir gehen einfach so unverantwortlich damit um, weil wir Menschen werden die Ersten sein, also hier, die gerade auf dem Globus sind, die werden das erste Mal die Welt teilen müssen mit Entitäten, die intelligenter sind als wir. Die können schneller denken, die wissen viel mehr, die müssen nicht schlafen, die müssen nicht essen, um irgendwie vernünftig denken zu können, die haben keine Sterbeängste, die haben keine und so weiter und sind einfach brachiale Denkmaschinen. Und die werden Hemmungen haben, sich überhaupt mit uns zu unterhalten. Sie fragen ja auch nicht ihre siebenjährige Tochter, wie sie morgen die OP machen sollen. Die werden uns vielleicht auch gar nicht mehr ernst nehmen. Also da hinten hat er jedenfalls also warnt, da hebt er wirklich warnend die Hand. Und OpenAI hat ja jetzt tatsächlich, das müssen sie auch, aus haftungsrechtlichen Gründen, sonst würden sie es garantiert nicht tun, aber sie haben das erste Mal publiziert eine Warnung, weil sie gesehen haben, dass in dem System Dinge vor sich gehen, die darauf hindeuten, dass es intern andere Überlegungen gibt als die, die nach draußen sozusagen kundgetan werden. Und das könnte ein Hinweis auf sozusagen Gefahren sein.
Das heißt, sind wir diesen Entitäten, die wir da bauen, wirklich noch gewachsen? Also ich gehöre nicht zu den Verschwörungstheoretikern oder zu denjenigen, die dann solche dystopischen Fantasien haben. Überhaupt nicht. Aber die Frage ist einfach berechtigt und die muss man als Wissenschaftler auch stellen. Und das hat Hinton auch getan und hat dann gesagt, also deswegen tritt er zurück, weil diese Allmachtsfantasien der großen Industrienationen, allen voran die Chinesen und die Amerikaner, die sich da sozusagen im Wettrüsten, wer ist der schnellste, wer ist der mächtigste, dann einfach ungehemmt diese KI-Systeme bauen, ohne dass wir wirklich wüssten, wie wir das dann am Ende beherrschen sollen. Das macht einfach Angst.
Und also das ist so etwas, was sicherlich im Zeithorizont, wenn Sie zehn Jahre ansprechen, aber auch schon fünf Jahre, wo wir sehr genau hinschauen müssen und wo wir uns nicht als Europäer, meine ich, nicht verleiten lassen dürfen, dem Wirtschaftswahn, wirtschaftlichen Allmachtsfantasien zu erliegen, sondern wir sollten immer daran denken, dass Ethik am Ende ein Business-Modell ist. Also wir sollten eine ethisch gerahmte, menschenfreundliche KI ist, wird von Menschen bevorzugt werden gegenüber KI-Systemen, die ich nicht durchschaue, deren ethische Rahmung ich nicht kenne. Von daher finde ich es gut, dass die EU sich mit dem AI-Act und in Deutschland halt der KI-Verordnung auf den Weg macht, da eine ethische Rahmung auch für Maschinen zu bauen. Und da sollten wir dranbleiben. Das wird uns erst mal ein bisschen zurückwerfen, aber in der Summe wird es uns stärker machen als die anderen. Und da sollten wir dranbleiben.
Genauso, man sieht das ja auch an dem KI-Modell, was Macron vorgestellt hat, drei Wochen nachdem Donald Trump diese ethische Rahmung gecancelt hat. Das war ja beeindruckend. Dieses MISTRAL-Modell aus Europa ist ein Modell, was sich in unseren Tests hier zumindest nicht verstecken muss, hinter DeepSeek aus China oder Meta aus den USA. Das sind ja so kleine, lokal lauffähige Modelle, die man gut in Kliniken auch einsetzen kann, weil sie eben diese Datenschutzproblematik nicht haben, weil sie ja nur lokal laufen. Und da ist MISTRAL wirklich ganz vorne mit dabei. Wir werden das jetzt systematischer testen, aber die ersten Experimente waren ganz hervorragend. Und da sollte Europa sozusagen bei der Stange bleiben und sagen, wir wollen eine ethisch gerahmte KI, besonders in der Medizin. Und da hoffe ich drauf. Das ist das, worauf ich hoffe.
Und wenn man sich jetzt das mal runterbricht, von dieser ganz großen Brille sozusagen runter, was wird in den Arztpraxen zu sehen sein in fünf bis zehn Jahren? Dann sind das erst mal ganz einfache Tools, die das Leben aber einfach leichter machen. Dazu gehört zum Beispiel, dass die KI mein Gespräch, das Arzt-Patienten-Gespräch mithört und zusammenfasst, sodass wenn das Gespräch zusammen fertig ist, sehe ich schon die Zusammenfassung auf meinem Desktop und kann die auch noch konfigurieren, kann auch ihm bitten, in Zukunft bitte mach hier das und das so und so. Dann prompte ich mir sozusagen die KI und dann fasst die halt die Gespräche so zusammen, dass sie mir passen und ich sie direkt in meinem System habe. Oder halt Aktensichtung, wenn der Patient ein bisschen komplexer ist in der Therapieplanung oder Diagnosestellung, dass ich dann die KI um eine Zweitmeinung bitte und das wird sie können. Oder zum Beispiel, wenn die EPA denn mal läuft, welcher Hausarzt will denn, wenn ich da als Erstkontakt hinkomme, soll der sich dann meine ganzen PDFs durchlesen? Das wird der nicht tun, da hat er gar nicht die Zeit zu. Und da werden KI-Systeme sagen, ich fasse das mal schnell zusammen, die Vergangenheit und dann werde ich auch mit der Akte chatten können. Ich kann dann einfach Fragen an die Akte stellen. Hatte der meine Knie-OP? Und dann kann die KI mir dann antworten. Ja, das war im Jahr 1982 damals und so weiter. Und was ist da für Metall verbaut worden? Also ich chatte dann sozusagen mit der Akte und das werden so ganz konkrete Arbeitserleichterungen sein, die wir sehen werden in fünf bis zehn Jahren, werden die Gang und Gäbe sein.
Und noch eine Anmerkung. Wir reden ja jetzt über das deutsche Gesundheitssystem. Aber wir müssen ja auch an den globalen Süden denken, wo vier Milliarden Menschen einfach gar keinen Zugang zu irgendeinem niedergelassen haben, aber fast alle ein Smartphone in Reichweite haben. Einer im Dorf hat immer ein Smartphone und das ist natürlich für die Ersteinschätzung enorm hilfreich, wenn man auf solche KI-Systeme zugreifen kann. Und da werden wir also, wenn wir es global sehen, werden wir in fünf bis zehn Jahren also im globalen Süden solche Diagnose-Unterstützungs- und Therapie-Unterstützungs-Systeme sehen, die einfach da unten den drastischen Arztmangel zumindest teilweise werden kompensieren können. Und das also global gesehen werden es etwas andere Systeme sein als hier bei uns. Aber die Ersteinschätzung der Notaufnahme wird in fünf bis zehn Jahren einfach Gang und Gäbe sein.
Rantner: Und da sitzt dann gar kein Arzt mehr. Da gibt es dann nur mehr die Avatare, die da sind, abarbeiten nachts um drei Uhr. (Gleichzeitig Hirsch: Nein, nein, nein, nein)
So schlecht ist die Vorstellung gar nicht, weil das ist ja echt kein schöner Job, nachts um drei Uhr eine Notaufnahme zu betreuen, ehrlicherweise. Aber ja, also Wahnsinn. Also ich merke bei mir selber, wie schlecht ich informiert zu dem Thema bin. Darf gar nicht dazu sagen, dass mein Bruder Physiker ist und jetzt ein KI-Masterstudium parallel begonnen hat, aber wir uns offensichtlich viel zu wenig darüber austauschen. Sie haben uns ganz einen fantastischen Einblick gegeben in die medizinische Sparte, was schon alles stattfindet. Was bestimmt stattfinden wird. Man kann sich das jetzt nach Ihren Schilderungen auch sehr gut vorstellen, wie das problemlos umgesetzt werden kann. So ein bisschen habe ich schon noch die Stimme im Hinterkopf, was einmal gedacht wurde, kann nicht zurückgenommen werden. Der Wunsch nach ethischer Regulation ist schon zentral, ehrlicherweise. Weil also auch wenn ich nicht mehr unterscheiden kann, ob das jetzt real ist oder nicht, dann denke ich ja wieder gerade an meinen Sohn, an die Kinder, die ja absolut in dieser virtuellen, teilweise virtuellen Welt aufwachsen. Ich würde mir vielleicht schon zutrauen, dass ich irgendwie ein Gefühl entwickle, ob das jetzt alles fake ist oder ob das real sein könnte, aber vielleicht auch nicht, wenn ich jetzt Ihren Blick so dazu nehme. Aber die Kinder wachsen ja jetzt nur mehr mit allen Möglichkeiten und alles unbegrenzt auf. Und da ist ja die Frage, wie die das dann mal verstehen können. Was aber absolut unseren Rahmen für heute sprengt.
Aber für die Medizin jetzt nochmal zurückkommend. Jeder ist gut darin beraten, sich mit dem Thema zu beschäftigen, der in der Medizin weiterhin auch tätig sein wird, weil wir können dramatisch davon profitieren, wir und vor allen Dingen auch die Patienten. Es wird die Abläufe erleichtern, es wird die Sicherheit erhöhen, es wird die ganzen Organisationsaufwand, das wird alles reduziert werden. Und so muss man es vielleicht doch abschließend als positiv sehen und sich ja nicht nur bedroht davon fühlen, weil es ist schon sehr schnell und es ist schon sehr groß und es ist schon sehr viel und sehr weitreichend. Und es betrifft uns in allen Bereichen des Lebens ja auch nicht nur in der Medizin.
Und damit möchte ich mich bei Ihnen noch mal ganz herzlich bedanken, wenn Sie noch ein abschließendes Wort an unsere Hörerinnen und Hörer mitgeben könnten in Bezug auf vielleicht, wie man es unterscheiden kann, ob fake oder echt, dann wäre ich Ihnen dankbar. Auch für mich selber.
Hirsch: Ja, ich wäre auch dankbar dafür. Es ist tatsächlich schwierig. Aber ich sehe es sehr ähnlich, wie Sie das eben gut zusammengefasst haben. Es liegen einfach, noch nie lagen bei einer Technologie so die Chancen und die Abgründe so nah beieinander wie bei der künstlichen Intelligenz, weil die künstliche Intelligenz eben in unser Denken reindringt und in unseren Fühlen und unsere Art der Kommunikation. Und mehr als eine Atombombe, ja, da war das auch dramatisch. Aber die macht zerstört halt nur in Anführungszeichen meinen Körper. Aber KI dringt eben in Bereiche vor, die eigentlich uns Menschen vorbehalten waren und von daher ist sie schon nochmal ein anderer Schnack. Und ich denke, jede:r Zuhörer:in und wir beide auch sind ja zweierlei. Wir sind einerseits in diesem Metier tätig und Sie als Ärztin, ich als Forscher und die Zuhörerinnen vielleicht mehr noch in der Versorgung, aber sie sind immer auch Mitglieder der Zivilgesellschaft. Und in welcher, was für einer Gesellschaft wir nachher leben wollen, ob wir nur noch in eine Innenstadt gehen und da immer nur noch computerisierte Kassen haben und da ist überhaupt kein Mensch mehr in den Läden oder ob wir zum Arzt gehen wollen und man begegnet keinem Menschen mehr, sondern man unterhält sich immer mit irgendwelchen Avataren. Das ist am Ende auch eine Frage der Zivilgesellschaft. Dass diese Technologie das können wird, da habe ich gar keine Zweifel. Aber ob wir das wollen, ob wir in einer solchen Gesellschaft leben wollen, das ist eine zivilgesellschaftliche Frage und keine Frage von uns jetzt als medizinische Fachleute. Und von daher ist jeder Zuhörer aufgefordert, sich sowohl als Mitglied der Zivilgesellschaft wie auch als ärztliche Mitglieder der Ärzteschaft Gedanken zu machen. Aber ich persönlich bin da auch sehr positiv. Die KI bietet so viele Chancen, die sollten wir nutzen.
Rantner: Wunderbar, das ist ja ein perfektes Wort zum Abschluss. Ich bedanke mich, wie gesagt, bei Ihnen nochmal, lieber Herr Professor Hirsch. Ich bedanke mich auch bei Ihnen, liebe Zuhörerinnen und Zuhörer, für das Dabeisein. Ich bin froh, dass wir eine KI-Kommission in der DGG haben. Die nächste Folge, die Sie erwartet in unserem Podcast, wird sich mit der Ausbildung beschäftigen. Sie hören dazu dann meinen Kollegen Farzin Adili wieder. Parallel dazu bereiten wir schon die Drei-Länder-Tagung in Luzern vor, wo auch diese ganzen Hot Topics und auch das Thema der KI nochmal auf einer großen Bühne bearbeitet und beleuchtet wird. Und damit bedanke ich mich nochmal bei allen. Bleiben Sie weiterhin interessiert und ich freue mich, wenn wir uns bald mal wieder hören. Wiedersehen. Tschüss.