Ist der „AI everywhere“ Hype in Healthcare am Ende eine „Quiet desperation“ für Patienten im Alltag?
13.05.2026
KI ist überall – auch in Healthcare. Auf Konferenzen, in Strategien, in Roadmaps. Sie verspricht bessere Prozesse, personalisierte Kommunikation und mehr Effizienz. Vor allem aber verspricht sie eines: mehr Nutzen für Patient:innen.
Doch was passiert, wenn dieses Versprechen auf die Realität von Gesundheitssystemen trifft – auf Unsicherheit, Überforderung, fragmentierte Strukturen und echte menschliche Bedürfnisse? Christian Geis, Director Creative Technology und Experte für Healthcare & Life Science bei wob, geht in seinem Beitrag der Frage nach, wann KI im Healthcare-Kontext wirklich relevant wird – und warum „Patient first“ mehr sein muss als ein guter Satz auf der nächsten Folie.
Wenn KI in Healthcare zum Standard wird: Warum „Patient first“ mehr braucht als gute Absichten.
Nach der OMR und vielen anderen Veranstaltungen der letzten Monate scheint der Tenor eindeutig: KI ist nicht mehr das nächste Feature. KI ist Infrastruktur.
AI-gestützte Suche, generative Content-Produktion, personalisierte Journeys, autonome Agenten, automatisierte Kanalsteuerung, schnellere Prozesse, bessere Skalierung. Der Subtext ist kaum zu überhören: Wer jetzt nicht auf KI setzt, spielt bald nicht mehr mit.
Gerade in Healthcare und Life Sciences bekommt diese Diskussion fast automatisch eine zusätzliche, moralisch aufgeladene Klammer. All das geschehe, so heißt es häufig, „für das Wohl der Patienten“. KI soll Versorgung verbessern, Zugang erleichtern, Kommunikation personalisieren, Adhärenz steigern und Gesundheitssysteme effizienter machen.
Das klingt richtig. Und in vielen Fällen ist es auch richtig gemeint, aber genau hier beginnt das Problem.
Denn ausgerechnet die Gesundheitssysteme, in denen diese Vision ankommen soll, sind seit Jahrzehnten geprägt von Sektorengrenzen, Budgetlogiken, Datensilos, regulatorischer Komplexität und gewachsenen IT-Landschaften. Während auf Konferenzbühnen über „AI-first Healthcare“ gesprochen wird, kämpfen Ärzte, Versorger, Unternehmen und vor allem Patienten im Alltag oft mit sehr viel grundlegenderen Dingen: Verständnis, Orientierung, Erreichbarkeit, Koordination, Unsicherheit und einem System, das durch demografischen Wandel und Kostendruck immer stärker belastet wird.
Die eigentliche Frage lautet deshalb nicht: Welche KI setzen wir ein?
Die eigentliche Frage lautet: Welchen Job erledigen wir damit wirklich für Patienten?
Zwischen Bühnenromantik und Versorgungsrealität.
Healthcare ist ein besonderer Kontext. Nicht, weil Technologie dort keine Rolle spielt. Im Gegenteil. Sondern weil Technologie dort immer auf Systeme trifft, die mit besonders hohen Erwartungen, starken Abhängigkeiten und realen Ängsten verbunden sind.
- Eine Patientin mit einer Erstdiagnose sucht nicht nach einem digitalen Touchpoint. Sie sucht nach Halt.
- Ein Patient mit chronischer Erkrankung sucht nicht nach einer App. Er sucht nach einem Weg, seine Therapie in einen Alltag zu integrieren, der ohnehin schon komplex genug ist.
- Angehörige suchen nicht nach einem Portal. Sie suchen nach Orientierung, nach Sprache, nach Sicherheit und manchmal schlicht nach dem Gefühl, nicht allein zu sein.
Und genau darin liegt die Spannung der aktuellen KI-Debatte. Viele Diskussionen drehen sich um Modelle, Plattformen, Automatisierung, Effizienz, Content-Workflows oder Datenintegration. Das ist alles wichtig. Aber es ist nicht der Ausgangspunkt.
Denn Patienten wollen eine Diagnose verstehen, ohne in Panik zu geraten. Sie wollen wissen, welche Fragen sie ihrer Ärztin oder ihrem Arzt stellen sollten. Sie wollen ihre Therapie in den Alltag integrieren, ohne daran zu scheitern. Sie wollen Nebenwirkungen, Symptome oder Unsicherheiten einordnen können, ohne sich in widersprüchlichen Suchergebnissen zu verlieren. Sie wollen Vertrauen aufbauen, ohne bevormundet zu werden.
Das sind keine rein funktionalen Bedürfnisse. Das sind emotionale Jobs.
Warum „Patient first“ oft zu vage bleibt.
Fast jedes Pharmaunternehmen und viele Healthcare-Organisationen stellen Patienten in ihrer Vision oder Mission in den Mittelpunkt. Das ist gut. Aber es reicht nicht.
Denn „Patient first“ bleibt häufig ein Versprechen, das stärker emotional aufgeladen als operativ verankert ist. Es steht auf Folien, in Strategiepapieren, in Purpose-Statements und Kampagnen. Doch sobald konkrete Projekte entstehen, verschiebt sich der Fokus oft wieder auf interne Logiken: Welche Kanäle müssen bespielt werden? Welche Plattform ist vorhanden? Welche Inhalte brauchen wir? Welche regulatorischen Grenzen gelten? Welche Prozesse lassen sich effizienter gestalten?
Das ist nachvollziehbar. Aber es führt dazu, dass Patientenzentrierung zwar behauptet, aber nicht konsequent gestaltet wird.
Mit KI wird dieses Risiko größer, denn sie kann bestehende Logiken enorm beschleunigen. Sie kann mehr Content produzieren, mehr Touchpoints orchestrieren, mehr Daten verarbeiten, mehr Interaktionen automatisieren. Aber wenn der Ausgangspunkt falsch gesetzt ist, skaliert KI nicht automatisch Patientennutzen. Sie skaliert im Zweifel nur Komplexität, irrelevante Kommunikation oder interne Effizienz.
Deshalb braucht Healthcare in der KI-Debatte einen Perspektivwechsel.
Jobs-to-be-Done als Brücke zwischen Technologie und echtem Bedarf.
Anthony Ulwick, einer der prägenden Köpfe hinter Jobs-to-be-Done, hat den Gedanken sehr klar formuliert: Kunden kaufen keine Produkte, sie „mieten“ sie, um einen Job zu erledigen.
Übertragen auf Healthcare ist diese Perspektive entlarvend.
Patienten „mieten“ keine App, keinen Chatbot, kein Portal und auch keine KI. Sie nutzen ein Angebot, weil es ihnen hilft, einen bestimmten Fortschritt in einer konkreten Situation zu erreichen.
Der Unterschied klingt klein, ist aber fundamental.
Die Produktperspektive fragt: „Wie können wir einen KI-Chatbot auf unserer Indikationsseite integrieren?“
Die Jobperspektive fragt: „Was passiert eigentlich bei Menschen nach einer Erstdiagnose? Welche Unsicherheit entsteht? Welche Informationen überfordern? Welche Fragen werden nicht gestellt? Wo bricht Vertrauen ab? Und welches Angebot könnte helfen, diese Phase besser zu bewältigen?“
Nehmen wir das Beispiel einer Erstdiagnose. Viele Menschen beginnen danach mit einer Suche im Netz. Nach zehn Minuten sind sie nicht besser informiert, sondern häufig maximal verunsichert. Sie stoßen auf Fachbegriffe, Foren, Horrorszenarien, widersprüchliche Informationen, allgemeine Ratgeber und Werbeinhalte. Der eigentliche Job lautet dann nicht: „Ich möchte möglichst viele Informationen.“
Der Job lautet eher: „Ich möchte verstehen, was diese Diagnose für mein Leben bedeutet, in einer Sprache, die ich aushalte.“
Das ist ein völlig anderer Ausgangspunkt.
Eine KI-gestützte Lösung könnte hier helfen. Aber nur, wenn sie klare Grenzen hat, medizinisch geprüft ist, regulatorisch sauber eingebettet wird, emotionale Überforderung erkennt, an menschliche Ansprechpartner verweist und einen Weg zurück ins Versorgungssystem öffnet. Dann wird KI nicht zum Selbstzweck, sondern zu einem Baustein in einer verantwortungsvoll gestalteten Patient Experience.
Das Problem sind nicht nur Tools. Das Problem ist das System.
Natürlich ist es verführerisch, KI-Projekte als Innovationsinitiativen zu starten. Ein Chatbot hier, ein Content-Automation-Pilot dort, ein internes Agentensystem, eine neue Suche, ein personalisierter Newsletter, ein Service-Prototyp.
Die Realität ist aber geprägt von einer strikten Trennung zwischen ambulant und stationär, von Vergütungslogiken, die selten entlang durchgängiger Patient Journeys funktionieren, von IT-Landschaften, die eher gewachsen als gestaltet sind, und von Haftungs-, Datenschutz- und Compliance-Fragen, die Innovation nicht unmöglich machen, aber deutlich anspruchsvoller.
Hinzu kommt eine Kultur, in der Fehlervermeidung oft stärker verankert ist als Experimentierfreude. Auch das ist verständlich. In Healthcare haben Fehler potenziell andere Konsequenzen als in vielen anderen Branchen. Aber genau dadurch entsteht eine paradoxe Situation: Entweder wird KI als internes Innovationsspielzeug betrieben, ohne echte Nähe zum Versorgungsalltag. Oder sie wird als Risikofeld vermieden, bevor sie überhaupt sinnvoll gestaltet werden kann.
Wenn KI in Healthcare relevant werden soll, muss sie aus der Spielwiese heraus und in verantwortungsvolle Strukturen hinein. Sie muss an echten Patientenjobs ausgerichtet werden. Sie muss messbar machen, ob sie tatsächlich hilft. Und sie muss so gestaltet sein, dass Menschen weiterhin Verantwortung tragen.
Von „AI everywhere“ zu „Patient value where it matters“.
Die Frage sollte also nicht lauten: Wo können wir überall KI einsetzen?
Sie sollte lauten: Wo entsteht für Patienten ein relevanter Fortschritt, wenn KI sinnvoll unterstützt?
Das ist ein großer Unterschied.
KI kann helfen, Informationen verständlicher zu machen. Sie kann Patienten dabei unterstützen, Fragen für Arztgespräche vorzubereiten. Sie kann Muster in Feedbackdaten erkennen. Sie kann Kommunikation personalisieren, ohne sie beliebig zu machen. Sie kann Fachpersonal entlasten, damit mehr Zeit für menschliche Interaktion bleibt. Sie kann Hinweise geben, wo Patienten auf einer Journey überfordert sind oder wo Angebote nicht verstanden werden.
Aber sie kann all das nur dann sinnvoll leisten, wenn vorher klar ist, welcher Job besser erledigt werden soll.
Genau hier liegt die Stärke von Jobs-to-be-Done im Healthcare-Kontext. Der Ansatz zwingt uns, nicht bei Features, Kanälen oder Technologien zu starten, sondern bei der Situation, in der Patienten Fortschritt suchen. Dieser Fortschritt ist häufig nicht nur medizinisch. Er ist emotional, sozial, organisatorisch und kommunikativ.
Warum PROMs und PREMs entscheidend werden.
Wenn wir Patienten wirklich in den Mittelpunkt stellen wollen, müssen wir nicht nur besser gestalten. Wir müssen auch besser messen.
Patient-Reported Outcome Measures und Patient-Reported Experience Measures können helfen, die Perspektive der Patienten nicht nur anekdotisch, sondern systematisch einzubeziehen. Sie zeigen, ob sich Ergebnisse und Erfahrungen aus Patientensicht tatsächlich verbessern.
In Verbindung mit Jobs-to-be-Done entsteht daraus eine starke Logik.
Zuerst definieren wir den Job. Zum Beispiel: „Ich möchte meine Diagnose verstehen, ohne panisch zu werden.“ Dann entwickeln wir eine Lösung, möglicherweise KI-gestützt. Anschließend prüfen wir mit geeigneten PROM- und PREM-Daten, ob dieser Job aus Sicht der Patienten tatsächlich besser erledigt wird.
Damit wird Patientenzentrierung operativ.
Patienten „mieten“ eine Lösung, um einen Job erledigt zu bekommen. PROMs und PREMs helfen uns zu verstehen, ob dieser Job wirklich besser erfüllt wird und ob die Lösung aus Patientensicht Vertrauen, Orientierung, Sicherheit oder Entlastung schafft.
Das ist besonders wichtig, weil viele relevante Dimensionen von Patient Experience nicht direkt in klassischen Performance-Dashboards auftauchen. Klicks, Öffnungsraten, Verweildauer oder Conversion-Ziele können hilfreich sein. Aber sie sagen nicht automatisch, ob sich ein Mensch nach der Nutzung eines Angebots weniger verloren fühlt. Sie sagen nicht, ob jemand bessere Fragen im Arztgespräch stellen konnte. Sie sagen nicht, ob eine Therapie verständlicher, machbarer oder weniger belastend geworden ist.
Genau hier müssen wir Messlogiken erweitern.
Human in the Process statt Human out of the Loop.
Ein weiterer Punkt wird in der KI-Debatte oft zu technisch behandelt: die Rolle des Menschen.
In Healthcare reicht es nicht, irgendwo einen „Human in the Loop“ zu definieren, der am Ende prüft, freigibt oder eskaliert. Gerade wenn es um Ängste, Unsicherheit, Diagnosen, Therapien und Vertrauen geht, müssen Menschen nicht nur Kontrollinstanz sein. Sie müssen bewusst Teil des Prozesses bleiben.
Deshalb ist „Human in the Process“ der treffendere Gedanke.
Es geht nicht darum, KI gegen menschliche Nähe auszuspielen. Es geht darum, KI so einzusetzen, dass sie Zeit, Orientierung und Entlastung schafft, damit menschliche Relevanz dort möglich wird, wo sie am wichtigsten ist.
Eine gute KI-Lösung in Healthcare erkennt ihre eigenen Grenzen. Sie weiß, wann Information nicht mehr ausreicht. Sie verweist sinnvoll weiter. Sie unterstützt Vorbereitung, Einordnung und Navigation. Aber sie ersetzt nicht Verantwortung, Empathie oder klinische Entscheidung.
Wenn „Patient first“ ernst gemeint ist, muss genau diese Grenze gestaltet werden.
Was bleibt, wenn der Hype abklingt?
Wenn der OMR-Hype aus der Timeline verschwindet, bleibt im Healthcare-Kontext eine nüchterne Einsicht: KI ist gekommen, um zu bleiben. Aber ihre Relevanz entscheidet sich nicht daran, wie beeindruckend sie klingt, sondern daran, ob sie einen klaren Job für Patienten besser erledigt. Alles andere ist Bühnenromantik.
Die Zukunft von KI in Healthcare wird nicht dadurch besser, dass wir überall „AI-first“ draufschreiben. Sie wird besser, wenn wir konsequent fragen, welcher Fortschritt für Patienten wirklich zählt. Wenn wir Lösungen nicht an Technologieversprechen ausrichten, sondern an realen Situationen. Wenn wir Daten nicht nur sammeln, sondern in verständliche Entscheidungen und fühlbare Entlastung übersetzen. Wenn wir PROMs und PREMs nicht als Pflichtübung sehen, sondern als Korrektiv. Und wenn wir menschliche Verantwortung nicht aus dem Prozess herausautomatisieren, sondern bewusster gestalten.
„Patient first“ ist ein starkes Versprechen. Aber es wird erst glaubwürdig, wenn wir es messen, gestalten und immer wieder neu daran arbeiten.
Gemeinsam arbeiten Thomas Foell, Director UX Strategy und Patient-Experience-Experte, und ich, Christian Geis, Director Creative Technology und Experte für Healthcare & Life Science bei wob, genau an dieser Schnittstelle: dort, wo KI-Hype, regulatorische Realität und echte Bedürfnisse von Patient:innen aufeinandertreffen.
Unsere Überzeugung ist klar: KI ist nicht das Ziel. Sie ist ein Mittel. Relevant wird sie erst dann, wenn sie Patient:innen hilft, einen konkreten Job besser zu erledigen.
Wenn Sie gerade dabei sind, KI-Initiativen im Healthcare-Bereich zu denken oder zu hinterfragen und sicherstellen wollen, dass „Patient first“ dabei mehr ist als emotionale Folienrhetorik, dann lassen Sie uns gerne ins Gespräch kommen.
Wenn euch dieser Beitrag gefallen hat, folgt Chrisitan Geis auf LinkedIn für weitere Perspektiven und Praxisbeispiele: Jetzt Christian Geis folgen.