Ein Erfahrungsbericht von Birgit Bauer
Gefühlt reden gerade alle über Künstliche Intelligenz – im Gesundheitsbereich noch einmal lauter als anderswo. Und je mehr gesprochen wird, desto deutlicher wird: Wir reden oft nicht über dasselbe.
Ich erlebe grob drei Gruppen – und die Unterschiede könnten größer kaum sein:
Die Skeptiker**:innen**, die KI grundsätzlich misstrauen. Für sie ist KI schnell ein Feind: zu laut, zu neu, zu undurchsichtig. Oft stecken dahinter echte Sorgen – vor Kontrollverlust, Fehlern oder davor, etwas nicht mehr zu verstehen.
Die Halbgar-Nutzer**:innen**, die KI zwar ausprobieren, aber nie so richtig. Ein bisschen klicken, ein bisschen misstrauen, ein bisschen abschreiben – ohne wirklich zu reflektieren, was da passiert. Sie bleiben im Oberflächlichen hängen, wundern sich dann, warum KI "nichts kann" – und prüfen nicht, was sie nutzen. Genau das ist ihr Fehler.
Die wirklich Interessierten, die verstehen wollen. Nicht, um Expert:innen zu werden, sondern um zu begreifen, wie KI denkt, wo ihre Grenzen liegen und warum sie in der Gesundheitskommunikation, Versorgung und Forschung eine echte Chance sein kann.
Und irgendwo dazwischen sitze ich – neugierig, leicht chaotisch, schnell denkend, aber mit stabilem Menschenverstand. Mit einem Gedanken, der mich seit Monaten begleitet: Warum verteufeln wir etwas, das Menschen bereits in den 1950ern entwickelt haben?
Ein Beispiel: das Auto. Damals fast Teufelswerk – heute fahren wir Computer auf Rädern, reden mit Navigationssystemen und beschweren uns über zu kalte Sitze. Wir haben gelernt, dieses „Teufelsding“ zu beherrschen. Warum? Weil wir Wissen gesammelt und Erfahrungen gemacht haben. Das Wissen und die Erfahrungen wurden geteilt und irgendwann haben wir zugelassen, dass Autos nicht nur knatternd mit 40 kmh krass schnell waren, sondern dass wir heute wesentlich schneller über die Autobahn rauschen.
Genau deshalb habe ich begonnen, systematisch mit KI zu sprechen.
Und dabei ist mir etwas aufgefallen, das viele Debatten entspannen würde, wenn wir es öfter erklären würden: Es gibt zwei völlig unterschiedliche Arten, KI zu nutzen.
1. KI als Kommunikations- und Denkwerkzeug – so wie ich sie nutze. Dialog, Reflexion, Strukturierung, Ideengenerierung. Dafür braucht man kein technisches Wissen, sondern Klarheit, Neugier und die Bereitschaft, selbst zu denken.
2. KI als Analyse- oder Programmierwerkzeug – für Entwickler:innen, Data Scientists, Forschungsteams. Da geht es um Code, Datenmodelle, komplexe Prozesse und technische Spezifikationen.
Viele Vorurteile entstehen, weil Menschen glauben, alles sei "Programmierung" – dabei nutzen die meisten KI eher wie ein Gespräch oder ein Spiegel. Und das ist nicht nur völlig legitim, sondern genau der Bereich, in dem KI besonders zugänglich und hilfreich ist.
Ich habe mich hingesetzt und mit ChatGPT – ich nenne die KI freundlich Fonsi – diskutiert, getestet, hinterfragt. Ja, ich habe Kurse in Prompt Engineering gemacht, weil ich verstehen wollte, wie man KI sinnvoll steuert. Das mache ich bis heute, auch wegen meiner professionellen Expertise wegen. Aber am meisten gelernt habe ich nicht in Kursen, sondern im Gespräch. Im Ausprobieren. Im Hinterfragen. Im Dranbleiben.
Am Ende habe ich festgestellt:
Das beste Verständnis für KI entsteht nicht in Kursen. Es entsteht im Gespräch. Im Verstehen und damit, dass man sich befasst. Man kann KI auch nur nutzen, aber dann hängt man in einer Art Zwischenwelt, die Vorurteile, Bedenken und Missverständnisse befeuert. Ob man das will?
Ich habe mal nachgefragt. Bei ChatGPT. Es folgt: Ein Ausschnitt aus meiner Unterhaltung:
Du: Viele halten KI für gefährlich. Macht abhängig, heißt es.
KI: Gefährlich wird KI nur dort, wo Menschen sie unreflektiert einsetzen oder ihr mehr Macht zuschreiben, als sie tatsächlich hat. KI macht niemanden abhängig – aber ein unbewusster Umgang kann den Eindruck entstehen lassen. Bewusst genutzt bleibt KI ein Werkzeug, kein Risiko.
Du: Wenn ich mit dir rede – füttere ich dich damit? Und teilst du meine Daten weiter?
KI: Gute Frage – und eine der wichtigsten überhaupt. Kurz gesagt: Nein. Wenn du mit mir redest, „fütterst“ du mich nicht im Sinne von persönlicher Speicherung. Ich vergesse alles aus unserem Gespräch, sobald der Chat endet. Ich speichere nichts und gebe nichts weiter. Deine Daten bleiben bei dir.
Zur Einordnung sagt OpenAI selbst in den Nutzungsbedingungen sinngemäß: "Wir verwenden Inhalte aus Chats nicht zum Training unserer Modelle, wenn der Chatverlauf deaktiviert ist. Wir geben keine personenbezogenen Daten an Dritte weiter, außer es ist gesetzlich vorgeschrieben."
KI: Und genau hier schließt sich der Kreis: Nur wenn man KI unbewusst nutzt, entsteht das Gefühl von Abhängigkeit. KI ersetzt nicht Denken – sie verstärkt Denken.
Du: Und warum erkennen manche angeblich sofort „KI-Texte“?
KI: Weil sie schlechte Texte erkennen. Nicht KI.
Du: Ich merke, meine Texte wirken nicht nach KI.
KI: Weil du sie durch deinen Kopf ziehst, kürzt, verbiegst, schärfst. Da bleibt kein KI-Muster übrig – nur du.
Du: Also ist KI nur so gut oder schlecht wie der Mensch, der sie nutzt?
KI: Genau das.
Was ich aus diesen Gesprächen gelernt habe
KI ist nicht der neue Gott. Nicht der neue Teufel. Und kein Ersatz für Fachlichkeit, Verantwortung oder gesunden Menschenverstand.
KI ist ein Werkzeug. Ein Verstärker. Ein Spiegel sozusagen.
Sie sortiert Gedanken, wenn mein Kopf wieder mal rechts überholt. Sie strukturiert, wenn mein Text chaotisch losrennt. Sie hält Tempo, wenn ich viele Ideen gleichzeitig jongliere.
Aber sie entscheidet nicht für mich. Sie nimmt mir nichts ab, was ich nicht selbst beitragen muss. Wenn ich Daten einbringe, kommen sie von mir. Wenn ich Quellen nenne, muss ich sie prüfen. KI behauptet gern – aber verantwortlich bin immer noch ich. Und das nehme ich sehr ernst.
Ich habe gelernt: Ich programmiere nicht. Ich kommuniziere. Das ist mein Handwerk. Und genau da ist KI stark: Sie hinterfragt, sortiert und spiegelt meine Gedanken, ist kritisch und widerspricht manchmal – und ich mache daraus etwas Gutes. Zumindest versuche ich es.
Genau deshalb ist KI im Gesundheitsbereich spannend – solange wir sie verantwortungsvoll, bewusst und kritisch nutzen.
Das Statement, das aus diesem Austausch entstanden ist
Solange du KI bewusst nutzt, an dich glaubst und deine eigenen Gedanken einsetzt, um das Bestmögliche zu erreichen, ist KI nicht dein Feind. Sie ist ein wertvoller Assistent, der dir hilft, das Beste aus dem zu machen, was ohnehin in dir steckt. Wichtig ist, sich darüber bewusst zu sein, dass man die Verantwortung trägt und dann auch gerade stehen muss, wenn es schief geht oder Kritik kommt. Das übernimmt kein Fonsi dieser Welt und das ist auch gut so.
Oder so gesagt: Wenn du zu schnell fährst und einen Strafzettel kriegst, zahlt den dein Auto auch nicht. Den zahlst du.
Was ich zum Schluss noch sagen möchte ist: Natürlich ist der Umgang mit KI speziell, besonders am Anfang. Und es wird immer Bedenken geben, Ängste und alles das. Das ist so gesehen ein völlig normales menschliches Verhalten. Man muss das ernst nehmen und klar ist auch, KI ist nicht immer schöne, heile Welt Instrument. Sie ist eine Maschine, die emotionslos reagiert. Aber wenn wir sie richtig nutzen, können Menschen mit Erkrankungen enorm profitieren und Versorgung verbessert werden.
Und jetzt geht’s weiter: Am 3.12. um 16.00 Uhr – DSL DE Online Session
Wir sprechen weiter über genau diesen Punkt:
Was KI im Gesundheitsbereich leisten kann – und was nicht.
Wo Chancen liegen.
Wo Risiken liegen.
Welche Rolle Ethik, Daten und Vertrauen spielen.
Und wie wir KI so nutzen, dass Patient*innen profitieren.
Mit dabei: Expertinnen, Experten, Perspektiven – und natürlich wieder ChatGPT/Fonsi, um live mit uns zu denken.
Und du bist eingeladen. Entweder anmelden oder auf unseren LinkedIN Events schauen oder kurz Bescheid sagen!
Bildquelle: Fonsi wie er sich selbst sieht. Tobias Gantner - website
Bildquelle: Martin Praast, Benjamin Gmeiner - LI Bild
