KI im Gesundheitswesen: Neue Fragen an eine digitale Ethik: Weiß die Maschine, was sie tut?
Wie können Sicherheit, Innovation und ethische Verantwortung im Gesundheitswesen miteinander verknüpft werden? Diese Fragen stehen im Mittelpunkt aktueller Diskussionen – und sie betreffen nicht nur IT-Abteilungen, sondern auch die strategische Ebene. Denn Cyberangriffe kosten nicht nur Geld, sie können Leben gefährden. Deshalb muss Cybersicherheit oberste Priorität haben.

Hinweis: Dieser Artikel stammt aus der Ausgabe 2/2025 der Zeitschrift IT-SICHERHEIT. Das komplette Heft können Sie hier herunterladen. (Registrierung erforderlich)
Letztlich geht es um Fragen, die über Leben und Tod entscheiden. Im Jahr 2007 wurde dem ehemaligen US-Vizepräsidenten Dick Cheney ein neuer Herzschrittmacher eingesetzt, bei dem die drahtlose Verbindung deaktiviert wurde. Hintergrund war die Sorge, dass internetfähige Medizingeräte potenzielle Angriffspunkte für Cyberkriminelle darstellen könnten. Dieser Fall rückte das Thema Sicherheit im digitalen Gesundheitswesen schlagartig ins öffentliche Bewusstsein. Viele Menschen blickten plötzlich mit einem mulmigen Gefühl in Richtung ihres linken Oberkörpers.
Mit dem Einzug der künstlichen Intelligenz (KI) in die Medizin stehen wir heute vor neuen Herausforderungen: Diese betreffen nicht nur
die Sicherheit, sondern auch ethische Grundsatzfragen, denn so viel ist sicher: KI wird die Medizin in rasantem Tempo weiter verändern
– schneller als die Erfindung des Penicillins, des Röntgens, der Computertomografie. Schon heute kommt künstliche Intelligenz zunehmend in der Diagnostik, der Therapieoptimierung und der Patientenüberwachung zum Einsatz.
Doch die Nutzung von KI wirft auch zahlreiche ethische Fragen auf, besonders im Hinblick auf IT-Sicherheit, Datenschutz und den Einfluss der „Big Tech“- Unternehmen, die bereits das Ideal eines ewig jungen, nicht mehr erkrankenden Menschen propagieren. Vor welche neuen Herausforderungen stellt das Entscheidungsträger in Krankenhäusern, Praxen und Pflegeheimen? Und woran genau sollen sie sich orientieren, um verantwortungsvoll mit der Nutzung von KI umzugehen?
Die erste große Frage: Sicherheit – aber wie viel?
Klar ist: Die Digitalisierung des Gesundheitswesens erfordert höchste IT-Sicherheitsstandards, um sensible Patientendaten zu schützen und
Angriffe auf medizinische Systeme zu verhindern. Aus zahlreichen Vorfällen in der jüngsten Vergangenheit weiß man: Krankenhäuser sind
attraktive Ziele für Cyberangriffe, da Gesundheitsdaten besonders wertvoll sind und ihre Verfügbarkeit im Notfall über Leben und Tod
entscheiden kann. Zudem steigt durch die Vernetzung medizintechnischer Geräte – wie Herzschrittmacher oder Insulinpumpen – das Risiko für sicherheitskritische Zwischenfälle.
Zwar gilt, dass der Schutz von Menschenleben nicht durch unsichere Systeme gefährdet werden darf. Gleichzeitig weiß jeder Mediziner:
Hundertprozentige Sicherheit gibt es nicht. Oder – wenn überhaupt – nur zu einem hohen Preis, nämlich dem Verzicht auf die Anwendung des digitalen Fortschritts in Diagnostik und Therapie. Und genau das wirft die entscheidende Frage auf: Wie viel Sicherheit ist im medizinischen Alltag notwendig und wie viel Restrisiko muss in Kauf genommen werden, um die Möglichkeiten des Fortschritts zu nutzen?
Die zweite große Frage: Können wir bald alles heilen?
Der im Silicon Valley geprägte Begriff des sogenannten Solutionismus steht für die Überzeugung, dass jedes gesellschaftliche Problem mittels digitaler Technologie gelöst werden kann.
Diese philosophische Idee hat ihre Wurzeln in der Technologie- und Fortschrittsgläubigkeit, wie wir sie aus der Zeit der Industrialisierung kennen. Aber auch im Transhumanismus und der Überzeugung, dass der von Natur aus unperfekte Mensch optimiert werden muss und optimierbar ist.
In der Technologie-Welt hat der Solutionismus einen quasi-religiösen Status. Und natürlich hat er längst auch das Gesundheitswesen erfasst. KI-gestützte Gesundheits-Apps überwachen Vitalwerte, tracken Verhaltensweisen und setzen Anreize für ein gesundes Leben. Versicherungen bieten Tarife mit Rabatten für Kunden an, die ihre Gesundheitsdaten freigeben und einen aktiven Lebensstil nachweisen.
Doch diese Entwicklungen werfen ethische Fragen auf: Werden Patienten durch solche Systeme ungewollt zur Preisgabe ihrer Daten gezwungen? Führt die ständige Überwachung zu einem subtilen Zwang, sich bestimmten Normen zu unterwerfen? Eine kritische Reflexion
dieser Entwicklungen ist notwendig, um individuelle Freiheiten zu schützen. Das gilt auch für den Klinikbetrieb, die Arztpraxis oder das Pflegeheim. Nicht alles, was längst technologisch machbar ist, ist auch ethisch vertretbar.
Entscheider im Gesundheitswesen sollten hier ein ethisches Leitbild für ihre Arbeit formulieren und dann in geeignete Maßnahmen überführen. Darin muss auch ein „Code“ festgelegt werden, was im Zweifelsfall erlaubt und was verboten ist.
Die dritte große Frage: Schutz oder Überwachung des Patienten?
Traditionell war das Krankenhaus ein Ort „disziplinärer Kontrolle“, wie es der Philosoph Gilles Deleuze beschreibt. Patienten wurden dort engmaschig überwacht und betreut. Diese Gegenseitigkeit von Überwachung und medizinischer Versorgung galt im Krankenhausalltag bis weit ins 20. Jahrhundert hinein.
Doch mit der Digitalisierung verlagert sich die medizinische Versorgung zunehmend in den privaten Raum. Apps zur Fiebermessung, Blutdruckkontrolle oder zum Diabetesmanagement ermöglichen eine dezentrale Patientenüberwachung. Das bietet mehr Autonomie, erfordert jedoch neue Kontrollmechanismen. Wer übernimmt die Verantwortung, wenn Patienten sich zu Hause selbst falsch einschätzen? Wie kann man sicherstellen, dass Patienten nicht durch überfordernde oder manipulative Technologien in neue Abhängigkeiten geraten?
Die Verlagerung der Kontrolle aus dem Krankenhaus in das eigene Zuhause bringt somit nicht nur Chancen, sondern auch Risiken mit sich. Die „Gefahr“, dass der Patient in seiner vertrauten Umgebung zu Hause und in seinem Alltagsrhythmus die notwendige Sorgfalt bei therapeutischen Schritten vernachlässigt, ist allgegenwärtig. Kliniken und Ärzte sollten hier gemeinsam mit dem Patienten Prozesse definieren, wie das Miteinander in der therapeutischen Phase gestaltet wird. Neue Technologien aus der Telemedizin und Anwendungen zum Generieren von Gesundheitsdaten helfen dabei.
Die vierte große Frage: Dürfen wir der KI vertrauen?
Der Einsatz von KI bietet große Möglichkeiten zur Verbesserung der medizinischen Versorgung. Beispielsweise können KI-Systeme in der
diagnostischen Bildgebung Frühstadien von Krankheiten erkennen, die für das menschliche Auge schwer zu identifizieren sind. In der
Therapieplanung kann KI ärztliche Entscheidungen unterstützen, indem sie auf Basis von großen Datenmengen (Big Data) personalisierte
Behandlungsvorschläge erstellt. Doch diese Entwicklungen stellen Mediziner erneut vor ethische Herausforderungen:
- Wer trägt die Verantwortung, wenn ein KI-System eine Fehldiagnose stellt?
- Wie kann sichergestellt werden, dass KI-Algorithmen keine Verzerrungen enthalten, die bestimmte Patientengruppen benachteiligen?
- Wie kann verhindert werden, dass Menschen aufgrund von KI-gestützten Risikoprognosen diskriminiert werden, etwa mit höheren Versicherungstarifen für Risikopatienten?
Krankenhäuser müssen daher sorgfältige ethische Reflexionsprozesse etablieren, um den Einsatz von KI kritisch zu überprüfen und verantwortungsvoll zu gestalten. Auch hier kann es ein sinnvoller Weg sein, Standards im Umgang mit der künstlichen Intelligenz zu erarbeiten und festzulegen.
Ein möglicher Ansatz: Kleinteilig arbeiten und Geschichten erzählen
Um die ethischen Herausforderungen des KI-Einsatzes zu meistern, sollten Entscheidungsträger in der Gesundheitsbranche sich nicht ausschließlich von den großen Erzählungen aus dem Silicon Valley leiten lassen, sondern vor allem die konkreten Auswirkungen des technologischen Fortschritts auf den Patienten bewerten.
Eine sinnvolle Methode ist die Fallbetrachtung: Indem Mediziner und Ethikexperten Einzelfälle analysieren, lassen sich praxisnahe ethische Leitlinien entwickeln. Dabei sollte der Grundsatz des Privacy by Design gelten: Datenschutz und ethische Prinzipien müssen von Anfang an in die Technologieentwicklung integriert werden.
Krankenhäuser, Arztpraxen und Pflegeeinrichtungen müssen mit den ethischen Implikationen von KI transparent umgehen. Sie sollten Patienten offen darlegen, wie KI-Systeme funktionieren, welche Daten verarbeitet werden und welche Kontrollmechanismen greifen. Nur so lässt sich das Vertrauen der Patienten erhalten und eine verantwortungsvolle Nutzung von KI gewährleisten.

Rechtsanwalt Sascha Hesse ist Vorsitzender der AGORA Future e. V. Das Netzwerk widmet sich den ethischen Fragen der digitalen Zukunft.
Newsletter Abonnieren
Abonnieren Sie jetzt IT-SICHERHEIT News und erhalten Sie alle 14 Tage aktuelle News, Fachbeiträge, exklusive Einladungen zu kostenlosen Webinaren und hilfreiche Downloads.



