|
|
those who make things happen, those who watch things happen and those who wonder what has happened!“ |
|
„…
improvement never stops!“ © |
Zuletzt
bearbeitet :
17. 3. 2026
|
„ELGA 2.0“:
KI und ELGA
Diese
Seite ist gedacht als Informationsplattform und Diskussionsanstoß
!
Prolog:
Betrachtungen
zum Begriff „Intelligenz“
e-Health – eigentlich
längst möglich…
In vielen Ländern ist es Alltag:
Telemedizinischer Kontakt, strukturierte
Abklärung, direkte Verordnung, e-Rezept an die Apotheke der Wahl – fertig.
die Voraussetzungen sind längst da:
e-Rezept, ELGA, Telematikinfrastruktur,
Anbindung über die e-Card….
Entgegen der Annahme liegt das Problem
nicht in der Technik,
sondern in starren Rollenbildern und fehlenden Vision im System...
Ein realistischer Weg wäre:
Tele-Health als Primärkontakt, klare
Clinical Pathways, interprofessionelle Teams aus
Ärzten und anderen GDA`s
– mit definierten Kompetenzen und Qualitätssicherung.
Das Ergebnis wäre messbar:
schnellere Versorgung, weniger unnötige
Arztbesuche, Entlastung von Praxen und Notaufnahmen – ohne Qualitätsverlust.
Die Frage ist nicht, ob das geht.
Die Frage ist, warum wir es uns
weiterhin unnötig kompliziert machen.
Unser
Gesundheitssystem:
KI-unterstützt und menschlich verantwortet !
8 Möglichkeiten für einen gesunden
Umgang mit AI
Marcel
Biegger | 23.02.2026:
Warum
dein Gehirn stärker ist als jedes Modell:
Wir sprechen gerade viel über künstliche
Intelligenz.
Was dabei oft untergeht:
Dein Gehirn ist nicht ersetzbar,
vor allem wenn es um Kreativität, Intuition, soziale Intelligenz und flexible
Problemlösung geht
Neurowissenschaftlich ist klar:
Genau diese Kombination
macht uns Menschen unersetzbar
8 Empfehlungen
von Hirncoach (u.a. Barbara
Studer, PhD, Andreas
Monsch Dr. Maria
Brasser-Michel ) und aktueller Hirnforschung:
1. Nutze KI als Werkzeug – nicht als
Denk-Ersatz
Cognitive Offloading
bedeutet: Wir lagern Denken aus (z.B. an Apps, Kalender, Navigationssysteme
oder KI).
Das ist sinnvoll, aber nur bis zu einem gewissen Punkt.
Wenn wir ganze Denkprozesse an KI
abgeben, geschieht in unserem Gehirn folgendes:
Hirngesund heisst:
KI entlastet dich, aber sie ersetzt nicht dein eigenes Denken.
2. Erst selber
denken – dann KI nutzen:
Bevor du ChatGPT & Co fragst:
Formuliere zuerst deine eigene Idee, Struktur oder
Lösung
Dann nutze KI, um Lücken zu schliessen, Beispiele zu
finden, Texte zu polieren oder Alternativen zu generieren
Neurowissenschaftlich geschieht so
folgendes:
So bleibt KI ein Verstärker deines
Denkens, kein Ersatz.
3. KI-Ergebnisse immer aktiv prüfen
Grössere Sprachmodelle können „halluzinieren“,
also sehr überzeugend Unsinn produzieren.
Wenn du Antworten einfach übernimmst, ohne nachzudenken, hat das folgenden
Impact auf unser Gehirn:
Ein hirngesunder Ansatz ist hierbei:
So bleibt dein präfrontaler Kortex
aktiv, unser Kontrollzentrum für vernünftige Entscheidungen
4. Nicht für jede Kleinigkeit KI nutzen
Wenn du KI für jede Mail, jede
Formulierung, jede kleine Idee nutzt, nimmst du deinem Gehirn wichtige
„Alltags-Workouts“.
Das Problem:
Mach es so:
5. KI-freie Zeitfenster und analoges
Lernen einbauen
Phasen ohne KI sind kein Luxus, sondern
ein neurobiologisches Muss:
Das fördert:
Plane bewusst KI-freie Lern- und
Denkzeiten ein, dein Gehirn dankt es dir mit Klarheit und besserem Behalten.
6. Kreativität bewusst selbst trainieren
KI kann inspirieren, aber sie erlebt
nichts. Kreativität im Gehirn entsteht aus:
Eine starke kreative Leistung braucht
dieses Zusammenspiel.
Gesünder für unser Gehirn und unsere
Denkleistung:
So bleibt dein Default-Mode-Network
aktiv, eine wichtige Quelle für neue Ideen und Selbstreflexion
7. Konzentration schützen: Multitasking vermeiden !
„Ein bisschen ChatGPT, ein bisschen
Mail, ein bisschen WhatsApp, kurz LinkedIn …“
Neurowissenschaftlich ist das kein
echtes Multitasking, sondern schnelles Hin- und Herspringen:
Besser sind hier folgende Ansätze:
So schützt du deine Selbstregulation und
deine emotionale Stabilität
8. KI bei Kindern und Jugendlichen: spaeter, gezielter, begleitet
Das jugendliche Gehirn ist hochplastisch
und baut gerade:
Wenn KI zu früh zu viel abnimmt:
Hirngesunde Leitlinien:
So fördern wir Gehirne, die später mit KI
verantwortungsvoll umgehen können, statt sich passiv führen zu lassen
Was heisst das
alles für uns im Alltag?
Wenn wir so mit KI arbeiten, schützen
wir mentale Gesundheit, kognitive Leistungsfähigkeit
und emotionale Stabilität, bei uns selbst und in der nächsten Generation.
Erster Schritt:
Ziele formulieren !
1) Arbeitserleichterung/Zeiteinsparung für Ärzte
und andere GDA`s
siehe: Bates:
Ten commandements of clinical decision support
the speed of an information system is the
parameter that users value most.
If the decision
support is wonderful, but takes too long
to appear, it will be useless.
When infrastructure problems slow the speed of an application,
user satisfaction declines markedly.
Our goal is subsecond ‘‘screen flips’’ (the time it takes to
transition from one screen to the
next), which appears anecdotally to be the
threshold that is important to
our users.
While this may be a difficult standard to achieve,
it should be a primary goal
2)
Verbesserung der Behandlungsqualität
Nicht-Ziel:
Unhonoriert für die Verwaltung zu arbeiten
!
Themen:
1)
Welchen Impact hat KI in der Medizin ?
2)
Welchen Nutzen hat der Patient ?
3) Welchen Nutzen haben Ärzte und andere Behandler ?
4)
Welchen Nutzen haben wir (Ärzte,
Patienten) von der „Diagnosecodierung“
5)
Welcher zusätzliche Kosten- und
Arbeitsaufwand KI in ELGA auf uns zu ?
6)
Wie wird dieser Mehraufwand abgegolten werden ?
7) Wie
sehr belastet oder fördert die KI in ELGA die Arzt-Patienten-Beziehung
?
8) Datenschutzaspekte
9)
KI und Haftung
Was AI kann und können
sollte:

Ad
1) Welchen Impact hat KI in der Medizin ?
KI wird in der Medizin ähnlichen
Impact bekommen wie Automatisierung
im Cockpit eines Luftfahrzeuges
Beispiel aus einem U.S.
Werbe-Prospekt für AI im medizinischen Alltag
„91 % of providers report a reduction in digital fatigue“:
heißt: wir sind derzeit und seit Jahren zunehmend durch PC-Bedienung
überlastet !
„30-60 minutes saved per clinician per day on average“
das Hauptziel muß daher heißen: WENIGER
Zeit am Computer bei gleichzeitig verbesserter Information
mehr Zeit für und mit dem Patienten
„AI ensures a smooth discharge
process for patients and that providers get paid
for their care“
Ad 2) Welchen Nutzen hat der Patient ?
Kurz gesagt:
Sinnvoll und richtig angewendet kann KI,
vor allem auch in Kombination (mit einer noch
wesentlich zu verbessernden) ELGA
( “ELGA 2.0” )
die notwendige
Informationsbeschaffung zur
optimalen Vorbereitung einer ärztlichen Konsultation und zur konsequenten Befolgung ärztlicher Anordnungen verbessern
Ein Beispiel aus Deutschland (BARMER eCare
Gesundheits-App) zeigt:
Es gibt Medikamenten Wechselwirkungsprüfungen, die funktionieren.
Personalisierte Impferinnerungen, die Leben retten können.
Digitale Beipackzettel, die Sicherheit geben.
Und trotzdem, die Akzeptanz ist schwach.
Nur
6% der Versicherten nutzen sie.
Warum nutzen 94% ihre App nicht?:
Die einfache Antwort wäre “Das
persönlich Registrierungsverfahren hat Medienbrüche und ist zu kompliziert.”
Die wirkliche Antwort ist unbequemer:
Es fehlt die Alltagsrelevanz.
Weil die meisten Krankenkassen die App
weiter nur als
Datenspeicher denken.
Nicht als täglichen Begleiter.
Ein Gedankenexperiment:
Stellen Sie sich vor, Ihr Smartphone
könnte nur Fotos speichern.
Keine Wetter-App. Kein Kalender. Keine
Nachrichten.
Kein Messenger oder Social
Media App zum Teilen der Inhalte mit der Familie.
Würden Sie es nutzen?
Genau das ist die so eine App heute für
94% der Menschen.
Ein digitaler Aktenordner.
Ohne ausreichend Mehrwert im Alltag.
Was fehlt?:
→ Proaktive Warnungen: “Achtung: Wechselwirkung
zwischen deinen Medikamenten erkannt”
→ Personalisierte Erinnerungen:
“Deine letzte Vorsorgeuntersuchung liegt 3 Jahre zurück”
→ Intelligente Empfehlungen: “Dein
Impfschutz läuft ab. Hier sind Ärzte in deiner Nähe”
Nicht irgendwann.
sondern täglich.
Die Lücke ist nicht technisch.
Sie ist konzeptionell.
Wir brauchen keine besseren
Datenspeicher.
Wir brauchen täglich nützliche
Gesundheitsservices.
Die Frage ist nicht: “Wie bringen wir
Menschen dazu, die App zu nutzen?”
Die Frage ist: “Warum sollten sie?”
Und die Antwort muss jeden Tag sichtbar
sein.
Nicht nur beim nächsten Arztbesuch.
Was würde Sie dazu bringen, Ihre ELGA
täglich zu öffnen?
Einfacheres Onboarding +
alltagsnützliche Mehrwerte der individuellen Gesundhaltung.
Das wäre doch ein guter Vorsatz für
2026, oder?
© Jan Gessenhardt auf LinkedIn

„Aber die KI hat
gesagt, das ist ein Notfall.“
Dieser Satz begegnet Ärztinnen und Ärzten inzwischen
regelmäßig
– nicht nur in der ambulanten Versorgung, sondern zunehmend auch in der
Notaufnahme.
Patientinnen und Patienten kommen heute häufig
mit vorgefertigten Einschätzungen, die auf Internetrecherchen oder der Nutzung
künstlicher Intelligenz beruhen.
Diese Entwicklungen können informierend und unterstützend sein, bergen jedoch
auch Risiken:
Informationen sind oft verkürzt, kontextlos oder medizinisch nicht korrekt,
werden aber mit großer Überzeugung vertreten.
Für Ärztinnen und Ärzte entsteht daraus
eine besondere Herausforderung.
Neben der fachlichen Entscheidungsfindung gilt es, zahlreiche Rückfragen
auszuhalten:
Warum die KI nicht recht haben könne,
warum eine andere Einschätzung getroffen wird,
warum trotz scheinbar eindeutiger Informationen weitere Diagnostik notwendig
ist.
Gerade im klinischen Alltag – häufig
unter Zeitdruck – erfordert dies ein hohes Maß an Kommunikationskompetenz,
Empathie und fachlicher Sicherheit.
Die Balance zwischen patientenzentrierter Begleitung und medizinischer
Verantwortung zu finden,
ist anspruchsvoll und zentraler Bestandteil der ärztlichen
Professionalisierung.
Diese Fähigkeiten sind essenziell für
eine qualitativ hochwertige Versorgung
– und sie müssen in der Weiterbildung aktiv gefördert und begleitet werden.
Ad
3) Welchen Nutzen haben Ärzte und andere
Behandler von „ELGA 2.0“ ?:
Rasche Literatursuche
z.B. heute schon in https://www.openevidence.com
-
“ELGA 2.0” könnte unsere ärztliche
Arbeit wesentlich unterstützen wenn
die Strukturierung und Codierung
-
der (hoffentlich
vorhandenen) Befunde so “granulär” wäre
daß wirklich ärztliches Wissen IT-mäßig in der Dokumentation abgebildet wäre
und damit die notwendige Kommunikation zwischen Ärzten und anderen GDA`s massiv verbessern könnte
- etablierte Diagnostik (Mammographie,
diverse -skopien, MR,CT) wird bereits heute
KI-mäßig unterstützt
Ad 4) Welchen Nutzen haben
wir alle (Ärzte und Patienten) von „ELGA 2.0“:
Unterstützung durch:
- KI assistiertes Terminmanagement
- KI-assistierte Anamnese,
- KI-assistiertes Informationsmanagement des Arztes
- KI-assistierte Patientenberatung
KI-assistierte Dokumentation
Ob Systeme wie
321Med, “Tandem”,
Praxispal, u.v.m. in der
Praxis wirklich
den versprochenen Nutzen bringen wird sich
zeigen …
ChatGPT
Health u.a.: Wer haftet, wenn der KI-Gesundheitsrat tötet?
Ein 19-Jähriger ist tot. Er hat ChatGPT
um medizinischen Rat gefragt.
Und die KI hat ihm geantwortet
Ohne Warnhinweise, ohne Nebenwirkungen, ohne den Hinweis, einen Arzt
aufzusuchen
Wenige Tage später starb er an einer Überdosis.
3 Gedanken dazu:
1. KI ist kein Arzt. War es nie. Wird es in absehbarer Zeit nicht sein
2. Wer KI-Tools im Gesundheitsbereich anbietet, muss reguliert werden. Punkt !
3. Wir brauchen dringend mehr KI-Bildung. Menschen müssen verstehen, was diese
Tools können und was nicht
Der tragische Tod dieses jungen Mannes ist ein Weckruf !
Die Frage ist nur: Hören wir hin?
Was denkst du, sollte es ein Mindestalter oder eine Pflicht-Warnung für
KI-Gesundheitsberatung geben?
Kein
Stift. Kein Laptop. Kein Mitschreiben.
Aber nach 10 Minuten: Fertiges Arztprotokoll.
Wie?
Ich war diese Woche beim Arzt. Und mir ist etwas aufgefallen.
Der Arzt schaut mich an. Die ganze Zeit. Nicht auf den Bildschirm. Nicht ins
Notizbuch. Nur auf mich.
Wir reden. Über Symptome. Über Diagnose. Über Behandlungsoptionen.
10 Minuten.
Am Ende sagt er: "So, das Protokoll ist fertig.
Schauen Sie mal."
Ich: "Aber... Sie haben doch gar nichts getippt?"
Er lächelt: "Speech-to-Text. Mit KI. Läuft im
Hintergrund."
Das Protokoll war da. Vollständig. Strukturiert. Korrekt.
Ich frage nach dem System. Mistral. Macht Sinn, europäisches Modell,
datenschutzkonform.
Genau die richtige Wahl für sensible Patientendaten.
Und dann sagt er etwas, das hängen
bleibt:
"Ich habe 8 Minuten pro Patient.
Früher habe ich 3 davon mit Tippen verbracht. Jetzt kann ich 8 Minuten
zuhören."
Das ist KI, wie sie sein sollte.
Nicht als Ersatz. Als Unterstützung.
Der Arzt tut das, wofür er ausgebildet ist: Zuhören. Analysieren.
Diagnostizieren. Empathie zeigen.
Die KI macht den Rest: Dokumentieren. Strukturieren. Protokollieren.
KI funktioniert genau dort:
- Wo sie repetitive Aufgaben übernimmt (Dokumentation, Protokollierung)
- Wo sie dem Menschen Zeit gibt, sich auf das Wesentliche zu konzentrieren
- Wo sie im Hintergrund arbeitet, ohne im Weg zu stehen
Der Arzt nutzt KI nicht, weil es modern klingt.
Er nutzt sie, weil er dadurch ein besserer Arzt sein kann.
Das ist der Unterschied.
Habt
ihr schon Beispiele für KI-Einsatz erlebt, wo ihr dachtet: "Genau SO
sollte es sein"?
( © gefunden auf LinkedIn )
Ad 5) Welcher zusätzliche Kosten- und Arbeitsaufwand kommt mit
der „ELGA 2.0“ auf uns zu ?
Implementationskosten in die Arztsoftware : hoffentlich überschaubar
Laufende Kosten für Softwarewartung: ebenso…
Arbeitsaufwand: abhängig von Thematik
letztlich sollte uns KI Zeit sparen für die persönliche, direkte Patientenbetreuung !
Ad 6) Wie wird dieser
(vor allem technische und zeitliche) Mehraufwand abgegolten werden
?
wurde bisher nicht diskutiert …
Tarifkataloge gehören längst aktualisiert … !
Ad 7) Wie sehr belastet oder
fördert die KI in ELGA die Arzt-Patienten-Beziehung ?
Als Informations-Werkzeug zur medizinischen Kommunikation ist KI in üblichen KIS und ASW noch ungeeignet.
Wirklich “intelligente” Dateninterpretation ist dzt. noch nicht möglich
siehe dazu auch:
„KI“
versus menschliche Entscheidungsfindung im Gesundheitsbereich: Eine
Standortbetrachtung …
Dies könnte auch dadurch bedingt sein daß Patienten aus
– irgendwelchen – Gründen
nicht daran interessiert sind daß
ihre
Daten/Informationen über Krankheiten, etc. im “System” registriert sind…
Ad 8)
Datenschutzaspekte
Unseres Erachtens in einer
persönlichen Arzt/Patientenbeziehung
unproblematisch !:
Einsicht in Zugriffsprotokolle
wie in ELGA für Patienten obligat !
10) KI und Haftung
Arzthaftung beim Einsatz von KI in der Medizin.
Darf KI eingesetzt werden (u.a. Therapiefreiheit, (un-)zulässige Delegation an Nichtärzte?) und
welche Anforderungen gelten ("Neulandmethode", Behandlungsstandard?)?
Muss KI vielleicht sogar eingesetzt werden?
Wie steht es um die notwendige Aufklärung?
Kann eine KI gegebenenfalls auch selbst aufklären?
Haftet der Arzt für Fehlfunktionen bzw. unerwartetes
Verhalten der KI?
Sind solche Systeme ein vollbeherrschbares Risiko?
Gelten die Grundsätze der horizontalen Arbeitsteilung?
Wirtschaftliche Aufklärung (§ 630c Abs. 3 S. 1 BGB) und Dokumentation (§ 630f
BGB) durch die KI?
Behandlung durch die KI als "automatisierte Einzelfallentscheidung" i.S.d. Art. 22 Datenschutz-Grundverordnung (DS-GVO)?
Large Language Models in der Medizin,
Ärztliche Fernbehandlung
Weitere Informationen:
Ein Blick über
den Tellerrand:
Die
Amerikaner haben zumindest schon die Ziele erkannt und schön formuliert ...
...ob es wirklich funktioniert kann ich nicht prüfen
Epilog:
Welche Werte steuern eigentlich medizinische
KI?
Künstliche Intelligenz
beeinflusst klinische Entscheidungen immer stärker,
aber wessen Werte stecken eigentlich in diesen
Systemen?
Sind sie deckungsgleich mit dem,
was Ärzte, Patienten oder Kostenträger erwarten?
Ein aktueller Artikel in Nature
Medicine von Kohane und Manrai
bringt das Problem auf den Punkt:
Klinische Entscheidungen sind
nie wertneutral.
Trotzdem dringen KI-Systeme in
hoch sensible Bereiche vor, oft ohne klaren Rahmen,
welche Prioritäten (z.B. Nutzen, Gerechtigkeit, Kosten, Autonomie) sie
widerspiegeln.
Verdeckte Optimierung für
Nicht-Klinisches.
Wird KI in Triage, Utilization Review oder Therapieempfehlungen eingesetzt,
kann sie stillschweigend auf Kostenreduktion
oder Effizienz optimieren, statt auf
Patientenwohl oder Fairness.
Konkrete Beispiele
zeigen Risiken:
COVID‑19‑ICU-Triagetools
und Algorithmen von Kostenträgern haben bereits gezeigt,
wie fehl ausgerichtete Werte zu Schaden, Variabilität und rechtlichen
Konflikten führen können.
LLMs reagieren extrem auf „Werte‑Framing“.
Die gleichen Modelle geben
andere Empfehlungen, je nachdem ob sie „als Ärzte“ oder „als Kostenträger“
agieren sollen
Das macht deutlich:
Wer das Framing kontrolliert, bestimmt die Werte
der Empfehlung
Benchmarks zeigen hohe Streuung.
Unterschiede zwischen Top‑LLMs
und Instabilität innerhalb eines Modells belegen:
Die Übereinstimmung mit ärztlichen Standards hängt stark vom Kontext ab
Vorschlag: Ein
„Human Values Project“:
Ziel ist,
Entscheidungen und Werturteile von
Ärzten, Patient, Kostenträgern, Ethiker und Public Health
im grossen Massstab zu
erfassen und zu kartieren.
Rolle der Kliniker:
Wenn Entscheidungen am Point of Care inkl. Begründung dokumentiert werden, entstehen
wertvolle „Real‑World‑Signale“,
die mit KI‑Outputs verglichen und zur Ausrichtung genutzt werden können.
Rolle der Entwickler:
Modelle müssen so gebaut werden,
dass
- Entscheidungswege
protokolliert,
- Erklärungen generiert und
- Werte bewusst an bestimmte
Stakeholder oder ethische Frameworks (z.B. Gerechtigkeit, Transparenz,
Patientenzentrierung) angepasst werden.
Fazit aus Sicht eines KI‑Beraters:
Vertrauenswürdige medizinische
KI entsteht nicht „automatisch“ durch gute Modelle,
sondern durch bewusste Wertentscheidungen und interdisziplinäre Zusammenarbeit:
Klinik, Patientenvertretung, Ethik, Verhaltensforschung, Technik
Wer diese
Diskussion nicht aktiv führt, überlässt die Wertausrichtung von KI dem Zufall,
oder reinen Marktanreizen
Wenn wir KI in der Medizin
einsetzen, müssen wir immer mitdenken:
Für wen optimiert dieses System und nach welchen Werten?
Patienten sehen KI in
der Grundversorgung differenzierter, als viele Strategiepapiere vermuten.
Sie lehnen KI nicht ab
Ihre Akzeptanz ist aber an klare Bedingungen geknüpft.
Patienten erkennen das Potenzial von KI
zur Effizienzsteigerung.
Besonders bei Dokumentation, Triage und diagnostischer Unterstützung erwarten
sie Entlastung.
Diese Akzeptanz basiert auf einer Erwartung
Der
Zeitgewinn soll nicht dem System gehören, sondern dem Gespräch mit dem Arzt.
Zentral bleibt die
ärztliche Verantwortung
Patienten wollen, dass Ärztinnen und Ärzte Entscheidungen treffen,
Verantwortung tragen und KI-Ergebnisse einordnen.
Delegation an Systeme gilt nicht als Fortschritt, sondern als
Vertrauensverlust.
Vertrauen entsteht nicht durch
Rechenleistung
Es entsteht durch Beziehung, emotionale Resonanz und wahrgenommene
Verantwortlichkeit.
Diese Qualitäten schreiben Patienten Menschen zu, nicht Maschinen.
Gute Ergebnisse ohne Beziehung reichen aus ihrer Sicht nicht.
Viele Patienten fürchten eine
schleichende Erosion der Arzt-Patienten-Beziehung.
Weniger Blickkontakt, mehr Bildschirm, weniger Körpersprache.
Nonverbale Signale gelten als Teil der Behandlung, nicht als Beiwerk.
Ein weiteres Spannungsfeld ist Bias
Patienten äußern Sorgen, dass verzerrte Trainingsdaten bestehende
Ungleichheiten reproduzieren.
Reale Risiken, keine theoretischen
Datenschutz bleibt ein
Kernanliegen
Technische Sicherheit allein überzeugt nicht
Das Misstrauen richtet sich vor allem auf Dritte wie Versicherungen oder
Institutionen mit ökonomischen Interessen
Transparenz
über Datenflüsse gilt als Voraussetzung für Akzeptanz
Autonomie ist für viele nicht
verhandelbar.
Patienten wollen informiert werden, wenn KI ihre Versorgung beeinflusst.
Sie erwarten die Möglichkeit, dem Einsatz zu widersprechen. Aus
Selbstbestimmung.
Auch regulatorisch sehen Patienten
Nachholbedarf.
Sie fordern klare Regeln, gründliche Tests und gezielte Schulungen für
Fachpersonen, bevor KI breit eingesetzt wird.
Geschwindigkeit ohne Kompetenz erhöht aus ihrer Sicht das Risiko.
KI-Prognosen werden ambivalent erlebt
Einige sehen Hoffnung bei komplexen Fällen.
Andere empfinden Vorhersagen über mögliche Krankheiten als zusätzliche
psychische Belastung. Kontext und Timing entscheiden.
Auffällig ist eine Forschungslücke.
Keine der untersuchten Studien analysierte explizit die Perspektive von
Patienten auf große Sprachmodelle.
Dabei verändern sie Kommunikation, Beziehung und Entscheidungsfindung
grundlegend.
Die Botschaft ist klar:
KI wird akzeptiert,
wenn sie Beziehung stärkt, Verantwortung beim Menschen belässt und Autonomie
respektiert
Technische Exzellenz reicht nicht.
(Mundzic et
al. 2025. Exploring Primary Care Patients’
Perspectives on Artificial Intelligence. JMIR AI. DOI 10.2196/72211)
Warum unser ambulantes
Gesundheitssystem bei komplexen Patienten an Grenzen stößt:
Ein nüchterner Befund:
Das ambulante System ist optimiert für
– Standardfälle
– hohe Frequenz
– kurze Kontakte
– formale Gleichbehandlung
Es ist nicht optimiert für
– komplexe Fragestellungen
– Prävention und Einordnung
– leistungsorientierte, informierte
Patientinnen und Patienten
– Zeit, Tiefe und Verantwortung auf Augenhöhe
Das ist kein Vorwurf an
einzelne Ärztinnen und Ärzte.
Das ist eine
Designfrage
Dieses System entstand historisch, um
ärztliche Unabhängigkeit zu sichern,
staatliche Einflussnahme zu begrenzen und flächendeckende Versorgung zu
garantieren.
Das hat gut funktioniert – für
Standardmedizin
Das strukturelle Problem:
Ein System, das Zugang, Menge und Zeit
reguliert, schützt Stabilität
– aber dämpft Qualität, Individualität und Innovation.
Komplexe Patienten werden dadurch nicht
schlecht behandelt, sondern strukturell unpassend.
Innovation entsteht in solchen Systemen
nicht durch Konfrontation, sondern durch klar abgegrenzte Parallelmodelle
Nicht gegen das System.
Sondern dort, wo es
endet.
KI-Interoperabilität:
Warum Interoperabilität im EHDS nicht
bei “FHIR haben wir” endet
Stell dir zwei Kliniken in zwei
EU-Ländern vor. Beide behandeln die gleiche Erkrankung. Beide dokumentieren
Laborwerte, Medikationen und Bildgebung.
Dann kommt eine Forschungsfrage (oder
ein KI-Projekt): Welche Patienten profitieren von Therapie A und welche eher
von Therapie B?
Auf dem Papier klingt es einfach: „Wir
tauschen Daten aus.“
In der Praxis scheitert es oft an drei
unsichtbaren Hürden:
Auffindbarkeit (Discoverability):
Gibt es überhaupt
einen verlässlichen Datenkatalog? (Also eine Art „Bestandsverzeichnis“, das
zeigt:
Welche Daten gibt es wo, in welcher Qualität und unter welchen Bedingungen sind
sie nutzbar?)
Ohne diese Transparenz bleiben Daten faktisch „unsichtbar“, selbst wenn sie existieren
Bedeutung (Semantik):
Gleiche Begriffe sind nicht automatisch
gleich. Beispiel HbA1c:
Zwei Kliniken können „HbA1c“ dokumentieren, aber mit unterschiedlichen Codes,
Einheiten, Referenzbereichen oder Messmethoden.
Ergebnis: Daten sind zwar vorhanden,
aber ohne Harmonisierung nicht zuverlässig vergleichbar (und damit für
Analysen/KI riskant)
Regeln & Prozesse (Governance):
Selbst bei guter Technik braucht es klare
Antworten: Wer genehmigt Zugriff? Welche Nachweise sind nötig?
Wie wird dokumentiert, dass Daten nur für den definierten Zweck genutzt werden?
Was bedeutet „secure processing
environment“ (eine kontrollierte, abgesicherte
Umgebung, in der Daten verarbeitet werden dürfen)?
Ohne Governance
bleibt es bei Einzelfällen statt Skalierung
Der wissenschaftliche Blick darauf:
Genau diese
Realität adressiert ein aktuelles Paper im JMIR Publications (2025, DOI:
10.2196/69813).
Spannend: Der Beitrag denkt den European Health Data Space (EHDS) als Kette,
nicht als Einzelstandard:
Von Discoverability (z. B. DCAT-AP) Über
Analyse-Modelle (z. B. @OHDSI / OMOP) bis zum Exchange (@HL7 / FHIR)
...und verknüpft das mit Governance sowie AI-Risiken (EU AI Act).
Heißt:
Nicht nur „Daten senden“, sondern „Daten finden, verstehen und rechtssicher
nutzen können“
Zeitdruck ist real: EHDS2-Pflichten
werden voraussichtlich ab ca. 2028 wirksam,
einige Datenkategorien (z. B. klinische Studien & Genetik) eher ab 2030.
Und ja:
OMOP für Analytics
FHIR für Transport,
aber für klinische Dokumentation und semantische Modelle im Versorgungsalltag
sind Ansätze wie
openEHR (openEHR International) ein wichtiger Teil des Gesamtbilds
(Nicht „entweder-oder“, sondern „je nach Zweck“.)
Das Projekt setzt außerdem auf
Austausch:
Projekte können Lessons Learned und Best Practices
teilen
damit Interoperabilität in Europa nicht jedes Mal neu erfunden wird.
1. Kleine
Verbesserungen von 1 % täglich führen zu großen Ergebnissen.
2. Deine Systeme
bestimmen deinen Erfolg.
3. Gute Gewohnheiten
erleichtern die richtigen Handlungen.
4. Das Umfeld prägt
das Verhalten.
5. Deine Identität
bestimmt deine Gewohnheiten.
6. Beständigkeit
ist wichtiger als Intensität.
7. Was du
wiederholst, wirst du.
8. Mache gute
Gewohnheiten selbstverständlich und schlechte schwierig.
9. Du bekommst, was
du misst.
10. Kleine
Schritte, die täglich getan werden, bewirken nachhaltige Veränderungen.
11. Gewohnheiten
werden durch Wiederholung stärker.
12. Beseitige
Reibungsverluste bei den wichtigen Dingen.
13. Erfolg entsteht
schrittweise, nicht plötzlich.
14. Kleine Erfolge
erzeugen Dynamik.
15. Deine
Gewohnheiten zeigen deine Prioritäten.
16. Verändere das System und Du veränderst das Ergebnis.
17. Ein besseres
Umfeld führt zu besseren Entscheidungen.
18. Wachstum
entsteht durch kleine, nachhaltige Maßnahmen.
19. Motivation schwindet. Struktur bleibt.
20. Man wächst
nicht an Zielen, sondern an Routinen.
Wenn Ihre
Motivation stagniert, verbeißen Sie sich nicht in die großen
Zielen.
Konzentrieren Sie sich stattdessen auf die kleinen Gewohnheiten, die Sie
unbewusst wiederholen.
Dort liegt der
wahre Fortschritt.
Negativ-Beispiel Deutschland:
„ePa gegen die Wand gefahren“
Mensch oder KI ?: Mensch und KI !
KI-Agenten
erledigen Aufgaben fast 90 Prozent schneller als Menschen
Die Zahl überzeugt. Die Schlussfolgerung greift zu kurz.
Eine
Studie zeigt ein differenziertes Bild:
16
realistische Arbeitstasks aus fünf Domänen wurden analysiert.
Datenanalyse, Berechnung, Engineering, Schreiben, Design.
Menschen
und Agenten folgten zu 83 Prozent ähnlichen Workflows
Der Unterschied lag in der Ausführung
KI-Agenten
setzen fast durchgängig auf Programmierung. Auch dort, wo grafische Interfaces
effizienter wären.
Menschen wechseln flexibel zwischen Tools und Geräten.
Agenten
erzeugen plausible Resultate, erfinden Daten, setzen Tools falsch ein,
übersehen visuelle Details
Menschen arbeiten langsamer, liefern
präzisere Ergebnisse, saubere Formate und praxisnahe Lösungen.
Bei
visuellen und UI-lastigen Aufgaben sinkt die Qualität der Agenten deutlich
Der
Einsatz von KI entscheidet über den Effekt:
KI
als Unterstützung steigert Effizienz um 24,3 Prozent
Vollautomatisierung verlangsamt Prozesse
um 17,7 Prozent durch Debugging und Kontrolle.
Agenten
arbeiten 88,3 Prozent schneller und bis zu 96 Prozent günstiger.
Verlässlichkeit sinkt.
Die
Workflows trennen sich klar:
Programmierbare
Schritte profitieren von Agenten. Datenbereinigung, Code, Transformation
Kontextabhängige Schritte profitieren von Menschen. Bewertung, visuelle
Kontrolle, Entscheidungen.
Hybride Teams zeigen den stärksten Effekt:
Mensch-KI-Workflows
steigern Geschwindigkeit um 68,7 Prozent.
Die Qualität bleibt stabil.
Verantwortung und Kontext bleiben beim Menschen
Die
Autoren empfehlen, menschliche Workflows als Lernbasis für Agenten zu nutzen.
Nicht
als abstrakte Ziele, sondern als konkrete Demonstrationen
Für
die Praxis zählt eine andere Frage: Welche Schritte sind programmierbar?
Welche
brauchen Wahrnehmung, Erfahrung und Verantwortung?
Im Gesundheitswesen ist diese Differenz zentral:
Geschwindigkeit
ohne Verlässlichkeit erzeugt Risiken.
Augmentierung stärkt Qualität, Sicherheit und
Wirksamkeit.
Die Zukunft liegt in bewusst gestalteten
Mensch-KI-Systemen
Nicht in autonomer Illusion.
KI und Kreativität
Die
meisten Menschen nutzen KI wie Google mit einer besseren Stimme.
Sie
bitten um Zusammenfassungen, Erklärungen, etc..
Aber das ist nicht schöpferisch: das ist
bloß Bequemlichkeit…
KI
wurde für etwas völlig anderes entwickelt.
Für diejenigen, die etwas erschaffen wollen.
Die
Träumer, Geschichtenerzähler, Designer, Gründer…
Die Studenten, die um zwei Uhr morgens einer Idee nachjagen, die sie noch nicht
erklären können.
Man
gibt nicht einfach nur KI einen Prompt, man arbeitet
mit ihr zusammen…
Man
hört hinter den Worten, spürt den Rhythmus dessen, was man meint, und
verwandelt Gedanken in Form.
Ein
Roman. Ein Lied. Eine Präsentation. Ein Vorschlag. Ein Kurzfilm. Eine Marke.
Man
denkt, es baut.
Man stellt sich vor, es vollendet.
Man
blinzelt... und etwas, das vorher nicht existierte, existiert nun.
Hier
geht es nicht um Geschwindigkeit. Es geht um Freiheit.
Die Freiheit, ohne Reibungsverluste zu schaffen, ohne zu warten, ohne sich zu
fragen, ob man dazu in der Lage ist.
Die
meisten werden KI nutzen, um Antworten zu erhalten.
Aber einige werden sie nutzen, um etwas zu schaffen, das eine Antwort wert ist.
Seien Sie nicht
gewöhnlich, seien Sie SuperCool.
https://go.supercool.com/super
KI und Qualitätsmanagement:
Die
größte Lüge im QM steht nicht im Konzept.
Sie steht in der Dokumentation.
In
fast jeder Einrichtung sehe ich dasselbe Muster:
Kostendruck, Personalmangel, keine Zeit….
Die
Folge:
Dokumentation wird rekonstruiert, nicht geführt.
30 % „nachgepflegt“. Nicht aus Betrug, sondern aus Systemversagen.
Das
Problem dabei versteht kaum jemand:
Dokumentation schützt nur, wenn sie die Realität abbildet.
Sobald
Papier und Praxis auseinanderlaufen, passiert Folgendes:
- Kosten-Risiko steigt, - Haftungsrisiko explodiert, - Führung verliert Kontrolle
-
Mitarbeitende lernen: „Hauptsache es steht da“
Und
genau hier scheitert klassisches QM:
Mehr Formulare lösen nichts,
mehr Anweisungen auch nicht.
Die
Lösung ist unbequemer, aber wirksam:
-
Fokus auf Hochrisikoprozesse
- Radikale
Vereinfachung der Doku
-
Klare Verantwortung statt Sammelordner
-
Führung, die Realität sehen will, nicht Beruhigung
Gutes
QM ist kein Papiertiger, es ist operative Führung mit Beweisen.
Nicht
für das Audit, sondern für den Ernstfall und für deinen Schlaf.
Jetzt
Hand aufs Herz:
Wie groß ist bei euch die Lücke zwischen Dokumentation und Wirklichkeit?
KI im Dienst der Gesundheit: Wie KI Diagnosen
neu denkt
Personalisierte
Medizin ist kein Zukunftstraum mehr, sie kann jetzt entstehen
Von „Schrotflinte“ zu Präzisionstreffer, massgeschneiderten
Diagnostik- und Therapiepfaden, besonders in:
Onkologie
Herz‑Kreislauf- und Lungenmedizin
Infektionsmedizin
Gebärmutterhalskrebs-Früherkennung:
KI-basierte Zytologie digitalisiert Abstriche und analysiert Zellen
automatisiert auf Auffälligkeiten
Pathologen müssen nicht mehr jedes Bild manuell prüfen, das spart Zeit,
Ressourcen und schafft Raum für das Wesentliche: die Patienten
Früherkennung von Sepsis bei Kindern auf Intensivstationen
Ein KI-Modell soll eine nosokomiale Sepsis 6–12 Stunden vor ihrem Ausbruch
vorhersagen.
Je früher die Behandlung beginnt, desto
höher die Überlebenschancen und gleichzeitig wird das klinische Personal
entlastet.
Long-Covid
und die Nadel im Heuhaufen
Im grössten Long-Covid-Forschungscluster
Niedersachsens helfen KI-Modelle, Muster in hochkomplexen Daten zu erkennen,
die dem menschlichen Auge verborgen bleiben.
Ziel:
bessere Diagnose und gezieltere Therapieansätze für bislang schwer greifbare
Krankheitsbilder.
Daten
als Schatz, nicht als Risiko
Wir verfügen über eine gute Datenbasis. Die Herausforderung liegt darin, eine
Balance zwischen „Datenschutz“ und „Datenschatz“ zu finden.
CAIMed setzt dazu auf einen hybriden KI-Ansatz:
Kombination
aus datengetriebenen Modellen (z. B. große Sprachmodelle)
und validierten Wissensdatenbanken (z. B. aus
Krankenhausinformationssystemen)
Stichwort: Retrieval Augmented Generation (RAG) für
nachvollziehbare und vertrauenswürdige KI-Entscheidungen.
Der
Mensch bleibt im Zentrum
Trotz aller technischen Möglichkeiten versteht sich KI klar als „digitaler
Assistent“, nicht als Ersatz.
Wichtig dabei:
Vermeidung von De-Skilling bei jungen Ärzt:innen
Frühzeitige und echte Interdisziplinarität: Mediziner,
KI-Forscher und Ethiker
entwickeln Lösungen gemeinsam in konkreten Use Cases
Nur
wenn medizinische Praxis und Forschung von Anfang an zusammenarbeiten,
entstehen Werkzeuge,
die im Klinikalltag wirklich helfen, für bessere Diagnosen, schnellere
Entscheidungen und eine Gesundheitsversorgung, die den Menschen in den
Mittelpunkt stellt.
macht Ki die Medizin besser ?
Österreich
gehört im internationalen Vergleich zu den Schlusslichtern im Public Health
Index 2025!
Trotz eines der teuersten Gesundheitssysteme der Welt:
Hohe
Ausgaben.
Schlechte Ergebnisse.
Und wir reden ernsthaft darüber, dass KI die Medizin besser machen wird?
Die
Statistik ist eindeutig:
Was
wir essen, macht krank.
hoher Anteil ultrahochverarbeiteter
Lebensmittel
zu viel Zucker
zu wenig Ballaststoffe
chronischer Stress
Bewegungsmangel
Das
Ergebnis:
steigende Adipositas
explodierende chronische Erkrankungen
metabolische Erkrankungen in immer jüngerem Alter
Das
ist kein individuelles Versagen.
Das ist ein Public-Health-Desaster.
Und während diese Entwicklung läuft,
fehlen in der medizinischen Realität die Basics:
Viele
relevante Blutparameter
werden
entweder:
gar
nicht abgenommen
nicht eingeordnet
oder sind vielen Ärzt:innen
faktisch nicht mehr präsent
Nicht
aus Dummheit.
Sondern
weil:
sie nicht leitlinienzentriert sind
nicht vergütet werden
im Studium und Alltag kaum vertieft werden
Funktionelle
Marker, Frühmarker, Zusammenhänge?
Oft
unbekannt.
Oft ignoriert.
Oft nicht genutzt.
Und
jetzt setzen wir KI darauf?
KI
kann nur mit dem arbeiten, was wir messen, verstehen und einordnen.
Wenn:
relevante Blutparameter fehlen
Werte nur als „normal / auffällig“ gelesen werden
funktionelles Denken nicht stattfindet
dann
skaliert KI keine Erkenntnis, sondern medizinische Reduktion.
Garbage in → garbage
out.
Chronische
Erkrankungen sind kein Algorithmusproblem.
Sie
sind:
Regulationsprobleme
Stressachsenprobleme
Ernährungs- und Lebensstilprobleme
Aufklärungsprobleme
KI
wird:
keine
Prävention ersetzen
kein Verhalten nachhaltig verändern
keine Gesundheitskompetenz aufbauen
kein Vertrauen schaffen
Die unbequeme Wahrheit
Wir
brauchen nicht zuerst bessere Algorithmen
Wir brauchen:
saubere Basisdiagnostik
bekannte und verstandene Blutparameter
Zeit für Einordnung
medizinisches Denken jenseits von Leitlinien-Minimum
echte Prävention
KI auf ein System ohne Grundlagen zu setzen, macht es
nicht gesund , sondern effizient krank.
Adipositas
ist kein Rechenfehler.
Chronische Erkrankungen sind kein Datenproblem.
Schlechtes Public Health ist kein KI-Defizit.
Es
ist das Ergebnis von:
fehlender
Prävention,
fehlender Aufklärung,
fehlender medizinischer Tiefe.
Arbeitsalltag heute:
8:00
Uhr: 40 E-Mails. Terminanfragen. Rezeptanforderungen. Laborbefunde
12:00 Uhr: Noch 28 unbearbeitet
18:00 Uhr: Noch 15
"Ich
wollte Menschen helfen. Jetzt verwalte ich E-Mails."
Das
ist das Problem !
Nicht die Digitalisierung
Sondern die falsche Digitalisierung.
Vision:
2026
wird das Jahr der Human-AI-Symbiose
Nicht: "Wie ersetzen wir Menschen durch KI?"
Sondern: "Wie befähigen wir Menschen, mit KI Großartiges
zu leisten?"
Warum unser Gesundheitssystem uns zu „mündigen
Unmündigen“ macht:
Wieder
einmal diskutiert die Politik darüber, den Zugang zu Fachärzten zu beschränken.
Das Schlagwort: „Patientensteuerung“
Wir verlangen von Patientinnen und Patienten, „mündig“ zu sein und das System
nicht zu überlasten
Doch wie soll Eigenverantwortung funktionieren, wenn Patient:innen gleichzeitig im „Blindflug“ durch das
System geschickt werden?
„Heute
war ich bei meinem Hausarzt / meiner Hausärztin
Und wieder wurde mir klar, wo die eigentliche Baustelle liegt:
Mangelnde
Augenhöhe durch fehlende Transparenz“:
Das E-Rezept: Abrufbar von meiner Karte, aber
ohne App sehe ich nicht einmal, welches Medikament mir verschrieben wurde
Die Diagnose und next
steps: Was wurde genau dokumentiert? Ich sehe es
nicht
Die Abrechnung: Was kostet mein Besuch das System heute? Keine Ahnung
Das Gespräch: Eine Zusammenfassung oder
ein Protokoll für meine eigenen Unterlagen?
Fehlanzeige !
Mein
Vergleich: Wenn ich mit meiner Kreditkarte bezahle, bekomme ich
sekundenunterstützt eine Push-Benachrichtigung:
Wo, wie viel und wofür
Warum ist das im Gesundheitswesen – dem wohl wichtigsten Bereich unseres Lebens
– nicht möglich?
Echte
Augenhöhe bedeutet:
Echtzeit-Transparenz: Ich möchte nach
dem Verlassen der Praxis auf meinem Smartphone sehen, was diagnostiziert und
abgerechnet wurde
Datenhoheit: Meine Gesundheitsdaten sind
kein Herrschaftswissen, sondern die Grundlage für meine Genesung
Niedrigschwelliger Zugang: Informationen müssen so intuitiv verfügbar sein wie
Banking-Apps.
Solange
wir Patient:innen wie
Bittsteller behandeln,
denen man Informationen nur auf Nachfrage (oder gar nicht) aushändigt,
brauchen wir uns über mangelnde
Effizienz im System nicht wundern.
Wie
seht ihr das?
Ist die Forderung nach mehr Steuerung ohne gleichzeitige radikale Transparenz überhaupt fair?
© : gefunden auf
LinkedIn
Die Industrialisierung nahm den Körper
KI nimmt jetzt den Verstand.
Die
Industrialisierung begann als Körperkritik. Sie erklärte Muskelkraft zur
teuren, fehleranfälligen Ressource und ersetzte sie durch Maschinen und Takte.
Der Mensch blieb, aber er wurde in den Prozess eingepasst. Das war
entwürdigend, zugleich aber eindeutig: Körper sind endlich, Arbeit ist
physisch, Produktivität ist messbar
KI
verschiebt jene Kränkung:
Sie stellt nicht mehr nur den Körper infrage, sondern den Geist: Schreiben,
Recherchieren, Planen, Codieren, Argumentieren
all das, was lange als „kognitives Eigentum“ galt, wird plötzlich
reproduzierbar. Damit brechen grundlegende Übereinkünfte:
Dass
Bildung automatisch schützt
Daß Intelligenz einen sicheren Beruf erzeugt
Daß Denken das unveräußerliche Alleinstellungsmerkmal
bleibt
Was
bleibt also, wenn der Körper industrialisiert ist und der Geist algorithmisiert wird?
Übrig bleibt nicht „Kreativität“ als Rückzugssphäre, sondern Verantwortlichkeit
KI kann Vorschläge machen, aber sie kann keine Haftung tragen. Sie kann Muster
erkennen, aber nicht entscheiden, wofür sie stehen will
Sie kann Sprache imitieren, aber nicht die Konsequenzen besitzen
Der Kern menschlicher Arbeit verschiebt sich von Produktion zu Zurechnung:
Wer definiert das Ziel? Wer setzt Grenzen? Wer trägt die Kosten von Irrtümern?
Wer entscheidet, wann Effizienz nicht mehr der Maßstab ist?
Genau
dort liegt die psychologische Polarisierung: Entweder wir nutzen KI als
Ausrede, um Urteilskraft zu delegieren
- oder wir nutzen sie als Anlass, Urteilskraft zu disziplinieren
Im ersten Fall entsteht eine bequeme Kultur der Entlastung:
„Das System hat empfohlen.“ Das Resultat sind entkernte Organisationen, in
denen niemand mehr wirklich zuständig ist
und Fehler nur noch zirkulieren
Im zweiten Fall entsteht eine reifere Kultur: KI wird Rechenleistung, der
Mensch bleibt Instanz.
Praxis
beginnt daher mit einer Inventur:
Trennen
Sie konsequent zwischen Tätigkeiten, bei denen Ihnen die Antwort egal ist, und
Tätigkeiten, bei denen Sie als Person dafür geradestehen müssen
Alles, was Reputation, Ethik,
Gesundheit, Sicherheit, Personal, Geldflüsse oder strategische Richtung
betrifft,
gehört in die zweite Kategorie:
KI darf hier beschleunigen, aber nicht entscheiden
Führen Sie für solche Entscheidungen ein
kurzes Urteil-Protokoll:
Was ist das Ziel, welches Risiko akzeptieren wir, welche Annahme könnte falsch
sein, und welches Signal würde uns zwingen, umzusteuern?
Das klingt banal, ist aber die schnellste Methode, aus „KI-Nutzung“ wieder
Verantwortung zu machen.
Und
zuletzt:
Schützen Sie Aufmerksamkeit wie Kapital. Wer KI ohne mentale Grenze nutzt,
bekommt nicht mehr Leistung, sondern mehr Output-Rauschen
KI stellt den Geist infrage - aber sie
zwingt uns damit zu etwas Seltenem:
den Geist endlich als das zu behandeln, was er ist. Eine knappe, zu steuernde
Ressource
Im Gesundheitssystem verschärft sich das Argument:
Industrialisierung
nahm den Körper der Pflegekräfte
KI nimmt den diagnostischen Verstand
Was bleibt: therapeutische Beziehung.
Ein
AI-Agent erkennt Medikationswechselwirkungen
Aber er kann nicht mit Patienten verhandeln, keine Angst nehmen,
nicht spüren, wann ein Symptom mehr ist als ein Datenpunkt.
Ihre
"Inventur" ist existenziell:
Delegierbar:
Musteranalyse, Risikoscoring, Dokumentation
Nicht
delegierbar:
Therapieentscheidung, Aufklärung, Vertrauensaufbau
Das
Problem:
Healthcare behandelt KI als "bessere
Software" statt als Verschiebung der Verantwortungsarchitektur.
Mein
Plädoyer:
Human-AI-Symbiose statt Delegation !
Der
Arzt wird vom Datenverarbeiter zum Gesunderhalter –
weil Routinearbeit wegfällt und Raum entsteht für
Verantwortung in Beziehung
"Aufmerksamkeit wie Kapital schützen" wird zur Healthcare-Kernkompetenz:
Wer
Aufmerksamkeit an AI-Output verliert, verliert therapeutische Präsenz
Wie sehen
Sie Verantwortlichkeit in regulierten Branchen?
© Prof. Dr. Dr. Oliver Hoffmann auf LinkedIn
Beispiele, die bereits Realität sind:
1.
CLEVELAND CLINIC – Intelligente Fallbearbeitung KI-gestützte "Ambient
Listening": Software automatisiert
klinische Dokumentation:
Ergebnis:
60% weniger administrative Arbeit
Ärzte haben mehr Zeit für Patienten
Die PA bekommt morgens keine 40 E-Mails, sondern 8 priorisierte Fälle
Das
ist Human-AI-Symbiose !
2.
KAISER PERMANENTE – KI-Gesundheits-Navigator:
4,9
Millionen Patienten in Kalifornien:
KI-gestützter "Intelligent Navigator" versteht Patientenbedürfnisse
in eigenen Worten
Ergebnis:
97,7% Genauigkeit bei Erkennung dringender Fälle
88,9% Genauigkeit bei passenden Versorgungspfaden
Patienten
fühlen sich nicht verwaltet, sondern begleitet
Das ist Service-Design.
3.
MAYO CLINIC – Digital Pathology:
20
Millionen digitale Slide-Bilder verknüpft mit 10 Millionen Patientenakten
Ergebnis:
Diagnosen in Minuten statt Wochen
Früherkennung von Krebs verbessert
Das ist Präzisionsmedizin.
4.
RUANDA:
Primary Care per Smartphone
Ruanda versorgt seit Jahren Millionen Menschen über digitale ärztliche
Erstkontakte per Smartphone
Konkret heißt das:
– über 2,5 Mio. registrierte Nutzer:innen
– tausende digitale Konsultationen pro Tag
– nicht als Pilot, sondern als regulärer Versorgungsweg
Der Ablauf ist bewusst simpel:
Symptome eingeben.
Einschätzung erhalten.
Rezept bekommen.
Abrechnung direkt über die nationale Krankenversicherung.
Gerade in ländlichen Regionen,
in denen Arztpraxen kaum erreichbar sind,
ist das oft der erste echte Zugang zu medizinischer Beratung.
Das Entscheidende ist nicht die App.
Sondern die Priorität.
Der Staat setzt den Rahmen.
Private Anbieter skalieren.
Ziel ist Zugang, nicht technische Perfektion.
Was wir uns anschauen könnten:
Wie Telemedizin bewusst simpel eingesetzt werden kann als niedrigschwelliger
Erstkontakt,
der Wege verkürzt, Zeit spart und Personal entlastet.
5. DEUTSCHLAND:
Mehr Überblick, mehr Sicherheit:
Ein Jahr ePA
– zwei Hausärzte ziehen Zwischenbilanz
Angesichts der positiven Erfahrungen ärgert sich der
Hausarzt darüber, wie lange der Weg zur ePA gedauert
hat.
Über 20 Jahre habe man diskutiert, während Deutschland international den
Anschluss verloren habe.
Für die Weiterentwicklung wünscht er sich weniger Angst und mehr Pragmatismus.
Sinnvolle Prozesse dürften nicht „totgeplant und totgeredet“ werden
Österreich 2026:
Wir haben
alles, was wir brauchen:
9,5
Millionen Erfasste vom e-Card-System
Millionen e-Rezepte jährlich
1 Jahrzehnt Gesundheitsdaten in ELGA
Was
fehlt?
Die Vision, wie Human-AI-Symbiose aussieht
Für
Versicherte:
Nicht: "Hier ist Ihre ELGA"
Sondern: "Ihre Laborwerte zeigen einen Trend.
Hier sind 3
Dinge, die Sie heute tun können."
Für
Mitarbeitende:
Nicht:
"40 E-Mails bearbeiten"
Sondern: "8 priorisierte Fälle – KI hat den Rest vorbereitet."
Für
Krankenkassen:
Nicht:
"Wir verwalten Kosten."
Sondern: "Wir halten Menschen gesund."
Das ist Human-AI-Symbiose
Nicht
Mensch oder KI
Sondern Mensch mit KI
2026 wird das Jahr, in dem wir entscheiden:
Bleiben
wir Verwalter?
Oder werden wir Gesundhalter?
Was ist Ihre Vision für 2026?
KI-Zuverlässigkeit ?
Eine
Zuverlässigkeitsanalyse von 52 empirischen Studien zeigt:
Obwohl Teams aus Mensch und KI im Allgemeinen besser
abschneiden als allein arbeitende Kliniker,
erreichen sie nur selten echte Synergie oder übertreffen die Leistung des KI‑Modells,
das unabhängig agiert.
Forschende
haben Daten aus klinischen Kontexten ausgewertet, um zu prüfen,
ob „Human‑Machine‑Teaming“ (HMT)
tatsächlich die oft versprochene „1 + 1 > 2“-Synergie im Gesundheitswesen
liefert.
Die
Analyse bestätigt, dass die Zusammenarbeit mit medizinischer KI die Leistung
und Zuverlässigkeit von Klinikern,
im Vergleich zu Situationen, in denen Menschen ohne Unterstützung arbeiten,
deutlich steigert.
Dennoch
erreicht HMT nur selten echte Komplementarität:
Die
Teamleistung liegt typischerweise nicht über der Zuverlässigkeit des KI‑Modells
allein
oder der „Best-of“-Leistung der beiden Akteure !
Zwei Faktoren beeinflussen den Erfolg besonders stark:
– die Art der Zusammenarbeit (Teaming‑Modus / Workflow)
– das Erfahrungsniveau des Klinikers.
Gleichzeitige Modi, in denen Kliniker die Fälle und die KI‑Ausgaben
parallel betrachten,
führen zu grösseren Zuverlässigkeitsgewinnen
als sequentielle Modi, in denen der Mensch zuerst entscheidet
und erst danach die KI‑Meinung sieht.
Jüngere
bzw. weniger erfahrene Kliniker profitieren deutlich stärker
von der Zusammenarbeit mit KI als sehr erfahrene Fachkräfte,
vermutlich, weil Senior‑Kliniker weniger bereit sind,
ihre ursprünglichen Urteile zu revidieren.
Überraschenderweise
zeigten Senior‑Kliniker in sequentiellen
Workflows
nahezu keine Leistungsverbesserungen,
obwohl dieser Ablauf aus rechtlichen Gründen und zur Vermeidung von „De‑Skilling“
oft bevorzugt wird.
Eine
Kennzahl, das „Komplementaritäts‑Verhältnis“,
zeigt:
Je grösser der Abstand zwischen der Zuverlässigkeit
der Maschine und der Zuverlässigkeit des Menschen wird,
desto geringer wird tatsächlich die Fähigkeit des Teams, komplementär
zusammenzuarbeiten.
Klinisch
bedeutsame Genauigkeitssteigerungen (z. B. +5 % oder +10 %)
hängen stark vom Zuverlässigkeitsvorsprung der Maschine ab,
dennoch erreichen die meisten Teams keine „utopischen“ Synergie‑Niveaus.
Die
Ergebnisse legen nahe, dass das blosse Hinzufügen von
KI zu klinischen Abläufen nicht ausreicht.
Organisationen müssen den Zeitpunkt der KI‑Einbindung im Workflow gezielt
gestalten und die
Zusammenarbeit speziell auf bestimmte Erfahrungslevel der Kliniker zuschneiden,
um echten Mehrwert zu erzielen.
KI im Spital:
Der
administrative Aufwand erdrückt unser medizinisches Fachpersonal, doch der
Einsatz von KI zur Entlastung ist ein juristisches Minenfeld
Der neue Leitfaden «KI in der medizinischen Dokumentation» aus der
Innovation-Sandbox des Kanton Zürich (verfasst von Stephanie Volz und Raphael
von Thiessen)
schafft hier endlich Orientierung. Er zeigt präzise auf, wie Spitäler und
Praxen Effizienz gewinnen können, ohne regulatorisch Schiffbruch zu erleiden.
Die
schmale Gratwanderung:
Ein
KI-Tool, das lediglich Sprache in Text umwandelt oder stilistisch glättet,
bleibt meist ein administratives Hilfsmittel
Sobald die Software jedoch Inhalte interpretiert, zusammenfasst oder gar
Diagnosen vorschlägt,
bewegen wir uns oft im streng regulierten Bereich der Medizinprodukte.
Der
«Shadow Use» – also die heimliche Nutzung von Tools wie ChatGPT durch
überlastetes Personal ist ein massives Risiko
Führungskräfte müssen proaktiv geprüfte Lösungen anbieten, statt die Augen vor
der Realität zu verschliessen.
Datensicherheit
in der Cloud ist machbar:
Mit Ansätzen wie «Confidential Computing», bei dem der Cloud-Anbieter technisch
keinen Zugriff auf die Daten hat,
lässt sich auch das Berufsgeheimnis wahren.
Pauschale Cloud-Verbote sind nicht mehr zeitgemäß.
Der
Bericht beweist eindrücklich: Innovation und Regulierung sind keine Gegensätze,
wenn Verwaltung und Praxis in einer «Sandbox» gemeinsam Lösungen erarbeiten
DIE MEDIZIN-REVOLUTION 2026:
Das Ende der Wartezimmer-Hölle?
Warum
wir im Jahr 2026 immer noch in Warteschleifen hängen oder monatelang auf
Termine warten?
Hier
sind die 3 krassesten Fakten, die man kennen muss:
KI übernimmt das Ruder (heimlich!):
Wusstest du, dass bereits JEDER ZWEITE Arzt privat KI-Tools nutzt?
Aber Vorsicht: "Shadow AI" ist gefährlich.
Der Report fordert:
Wir brauchen zertifizierte KI-Assistenten JETZT.
2026 wird das Jahr, in dem dein Arzt die Doku in Sekunden erledigt statt in
Stunden
Die 20-Stunden-Woche (für die Verwaltung):
Digitale Assistenten sparen einer Praxis bis zu 20 Stunden pro Woche.
Das Ergebnis? Über 1 MILLION zusätzliche Stunden für echte Patientenbehandlung
in ganz Deutschland.
Jede Woche!
Nie
wieder "Besetzt"-Zeichen:
KI-Telefonassistenten reduzieren unbeantwortete Anrufe um bis zu 75 %.
Dein nächster Termin bucht sich quasi von selbst,
während du noch überlegst, ob du zum Arzt musst
Das
Ziel für 2026:
Terminbuchung
in unter 5 Minuten (für 90 % aller Patienten!)
50 % weniger Papierkram für Ärzte & andere GDA`s
Schluss mit Doppeluntersuchungen dank vernetzter Daten
Die
Technik ist bereit. Die Patienten (72 %) wollen sie.
Jetzt müssen nur noch die Praxen weiter nachziehen, bevor sie im Admin-Chaos
versinken.
Was
denkst du? Würdest du einer KI deine Terminplanung oder sogar die Vor-Diagnose
anvertrauen?
Fazit:
Digitale
Gesundheit ist kein Sprint – sondern ein Trainingsprogramm
Österreich
steht in Sachen Digital Health auf einem soliden Fundament,
doch das volle Potenzial ist noch längst nicht ausgeschöpft.
Der durchschnittliche Digital-Fitnesswert liegt bei 4.9 von 10 Punkten
– ein ehrlicher Zwischenstand mit viel Luft nach oben.
Die Ergebnisse von Studien drei zentrale Erkenntnisse:
(1)
Die grössten Hürden sind weniger technischer, sondern
kultureller Natur
(2) Fortschritt entsteht dort, wo Akteure offen für Kooperation und
Experimentieren sind
(3) Digitalisierung gelingt nur, wenn sie als gemeinsames Projekt verstanden
wird
– getragen von Fachkräften, Institutionen und Politik.
Trotz
Herausforderungen gibt es Grund zu Optimismus
Die Innovationskraft der Akteure bleibt hoch, regulatorische Bewegung ist
spürbar
und das Vertrauen der Fachkräfte in Digital Health ist ungebrochen.
Die Zukunft des Gesundheitswesens entscheidet sich nicht
daran, ob wir digitalisieren, sondern wie mutig wir es tun !
Hier
geht’s zum Report (Print) https://lnkd.in/etYc82e6
Hier
direkt reinlesen (Online): https://lnkd.in/eQjtD8VP
KI und
Qualitätsmanagement
Ein
Thema, das es in einem funktionierenden System gar nicht geben dürfte
Und
das Schlimmste ist: Zeitaufwand für Verwaltungsarbeit killt Behandlungsqualität
Medizinische
Teams haben wirklich keine Zeit:
Es liegt nicht an der "unberechenbaren Pflege" und auch nicht am
Stellenschlüssel
Die
brutale Wahrheit, die in kaum einem Meeting ausgesprochen wird, lautet:
Die
Teams haben keine Zeit, weil sie jeden Tag das Rad neu erfinden müssen
Schauen
wir uns die Realität auf einer Station an:
Wenn
keine klaren Prozesse existieren, wird jede Routineaufgabe zum
Improvisationstheater
Eine
Fachkraft sucht zehn Minuten nach den passenden Wundauflagen, weil das Lager
nicht logisch sortiert ist
Zwei
Kollegen diskutieren eine Viertelstunde über die richtige Eingruppierung im
ICD10, weil es keine eindeutige Sprachregelung gibt.
Ein
anderer telefoniert dem Hausarzt hinterher, weil im Entlassungsbrief
entscheidende Informationen fehlten.
Das ist betreutes Chaos !
Wir
haben uns daran gewöhnt, Qualitätsmanagement als bürokratisches Monster zu
betrachten
Ein Monster, das wir füttern müssen, um beim Audit nicht negativ aufzufallen
Wir produzieren Papier für Ordner, die niemand liest
Das
ist genau jenes "Abbilden von Qualität",
das in unserer Branche wichtiger geworden ist als die Qualität selbst.
Dieses Missverständnis ist fatal
Es
führt direkt in die Falle des Organisationsverschuldens,
weil du Sicherheit durch Papierstapel simuliert ist, statt durch gelebte
Abläufe.
Der
pragmatische Shift muss im Kopf beginnen
QM
ist keine Zusatzaufgabe, die man macht, "wenn noch Zeit übrig ist".
Es ist das Betriebssystem einer funktionierenden Einrichtung
Wenn
du einen Expertenstandard implementierst, tust du das nicht für den Prüfer
Du tust es, damit der Nachtdienst um 3 Uhr morgens genau weiß, was zu tun ist,
ohne erst lange nachdenken oder improvisieren zu müssen.
Ein
guter Prozess schenkt Zeit
Er eliminiert die Fragen
Er beendet das Suchen
Er stoppt die Diskussionen und die Unsicherheit
Echte Qualität bedeutet, dass die Dinge einfach funktionieren
Dass der neue Mitarbeiter am ersten Tag produktiv sein kann, weil das System
ihn führt
Dass wir aufhören, Feuerwehr zu spielen, und anfangen, echten Brandschutz zu
betreiben.
Solange
QM als lästige Pflichtübung angesehen wird, werden wir immer "keine
Zeit" haben.
Sobald wir es als Werkzeug zur Reduktion von Reibungsverlusten begreifen,
gewinnen wir die Kontrolle zurück
Hören
wir auf, Komplexität mit Qualität zu verwechseln
Verbringt Ihr Team mehr Zeit mit der Suche nach Lösungen
oder mit der Anwendung von Standards?
Kampf der KI-Giganten: Wo bleibt Europa?
Während
im Silicon Valley ChatGPT, Claude und Gemini den
Takt diktieren,
stellt sich in Europa eine unangenehme Stille ein
Haben wir den Anschluss verpasst?
Wir
riskieren, zum reinen Konsumenten US-amerikanischer Technologie degradiert zu
werden
Ist der AI Act unser Schutzschild oder unser
Grabstein?
-
Digitaler Vasall vs. Souveräner Akteur
- Regulierungsweltmeister vs. Innovationstreiber
Es
reicht nicht mehr, nur über Risiken zu sprechen
Wir müssen Lösungen finden, um europäische Werte und brachiale Innovationskraft
zu vereinen.
Gestalten wir die Zukunft mit, oder schauen wir ihr nur
beim Passieren zu?
Links:
Dietmar Bayer, Präsident der ÖG Telemed
und stellvertretender Obmann der Bundeskurie niedergelassene Ärzte, erklärt im
Interview mit Sascha Bunda,
wie disruptiv sich die Künstliche Intelligenz auf fast alle Lebensbereiche und
natürlich auch die Medizin auswirken kann und wie wichtig eine umfassende und
reflektierte Beschäftigung mit dem Thema ist:
„Niemand
ist darauf vorbereitet“
Positionspapier
zu neuer ELGA-Anwendung e-Diagnose
EU-Bürger
haben verstärkt Zugang zu ihren Electronic Health Records (EHRs), aber nur 28%
nutzen ihn,
mit wesentlichen Unterschieden über verschiedene sozioökonomische
Voraussetzungen
Wie läßt sich diese Situation verbessern
?
Mehr unter: OECD Country Health Profiles

High investment
is not the same as adequate functioning
digital systems :

For the Netherlands it’s quite ironic,
it spends a lot on digital health for many years
but still the digital health
system as a whole performs poorly for both
professionals and patients.
An inadequate national implementation strategy, lack of coordination and leadership, combined with a dogmatic attitude towards “the market will solve everything for the lowest
price”
resulted in a multitude of fragmented dysfunctional
IT systems were exchange of information
across organisations in health and social care is very difficult with numerous critical
incidents annually.
Hospital IT is dominated by one
vendor who created a detrimental user lock-in and
the owner ranks now the
richest people in NL list with a estimated
1 billion of assets.
Despite warnings from user
and authorities and various
negative reports since
2011,
the Ministry of Health stubbornly continued with a ‘market approach’.
The current digital landscape in NL is practically beyond repair: too costly
and not sufficient (human) resources
available.
It’s a lesson that when
it comes to digitalisation, you need a proper national strategy and adequate resources and coordination to implement it.
The irony is that some
health system spent a fraction of the Dutch
budget and have a much better functional
digital health infrastructure.
…one could
say this is a typical example
of ‘Penny wise but Pound foolish’…
the Dutch obsession with minimising public spending and let’s leave it
to-the-market attitude, fired back in a very expensive dysfunctional digital health system 🤭
© Nick Guldemond auf LinkedIn 7.1.2026
Austria
is just on the next step in malfunction and expenses list …
time to change the management …!
Wer Chaos digitalisiert, hat danach
digitales Chaos.
Viele Einrichtungen stehen mit dem Rücken zur Wand. Die Branche schreit nach Digitalisierung.
Die Software-Vertriebler versprechen
lückenlose Sicherheit und das Ende der Bürokratie
Das ist eine gefährliche Behauptung
Software löst kein Organisationsverschulden. Software skaliert
nur das, was bereits da ist
Wenn Dein QM aktuell ein Papiertiger ist, baust du dir
gerade einen digitalen Godzilla
Das Problem: In der analogen
Welt merken wir oft noch, wenn eine
Vorgabe Unsinn ist. Das
Papier ist geduldig.
Eine erfahrene Fachkraft kann es zur Not ignorieren, um den Bewohner zu versorgen
Die Software ist gnadenlos. Sie erzwingt die Einhaltung von Abläufen durch Pflichtfelder,
damit legst du deine Versorgung lahm. Du zementierst Ineffizienz.
Mein Rat an jeden, der Verantwortung trägt:
Bevor du die "große Lösung"
ausrollst, machst du den analogen Stresstest.
Ein Prozess darf erst dann digitalisiert werden, wenn er diese 3 Kriterien erfüllt:
- Er wurde auf das
absolute Minimum reduziert
- Er dient nachweislich der
Sicherheit (und nicht der Beruhigung des Gewissens)
- Er ist in unter 30 Sekunden erledigt
Alles andere ist Geldverbrennung und baut nur eine
noch höhere Hürde zwischen Behandler und Patient auf
Pragmatismus vor Pixeln:
Erst aufräumen, dann automatisieren. Niemals umgekehrt
Frage an die Strategen: Welchen Prozess hast du zuletzt komplett gestrichen,
BEVOR du über eine Software
nachgedacht hast?
© Daniel Schill auf LinkedIn 7.1.2026
Patienten – wohl oder übel ?
Vielleicht
müssen wir uns eingestehen: Die digitale Welt im Gesundheitswesen ist nicht
primär aus Behandlung entstanden.
Sie kommt historisch aus Abrechnung und Forschung. Nachweisbarkeit hier,
Standardisierung dort.
Beides wichtig – aber beides erklärt, warum unsere Systeme vieles hervorragend können
und trotzdem im Alltag oft versagen: den Verlauf einer Behandlung wirklich zu
tragen.
Denn
parallel hat sich Versorgung weiter fragmentiert:
mehr Spezialisierung, mehr Sektorengrenzen, mehr Schnittstellen, mehr
Teilzuständigkeiten.
Digitalisierung „klebt“ dann an den Rändern dieser Fragmente.
Jede Einheit optimiert ihren Ausschnitt, selten den Gesamtverlauf.
Das gemeinsame Bild entsteht mühsam – wenn überhaupt.
Und genau in diese Lücke fällt der Patient, wohl oder
übel
Er
wird zum Kurier, weil Informationen nicht zuverlässig fließen: „Bringen Sie
bitte alles mit.“
Und er wird zum Sensor, weil zentrale Endpunkte nur über Erleben sichtbar
werden:
Belastbarkeit, Schwindel, Schmerz, Nebenwirkungen, Alltagstauglichkeit.
Paradox
ist nur: Diese Sensor-Rolle wird oft nicht wirklich verarbeitet.
Wenn Erleben und Messwerte nicht zusammenpassen, wird das Erleben schnell als
„unspezifisch“ abgetan
– obwohl es häufig der wichtigste Hinweis ist, dass etwas im Systemzusammenhang
nicht stimmt:
Timing, Nebenwirkung, Wechselwirkung, falsche Priorisierung.
In
einer alternden, chronisch kranken Gesellschaft ist das nicht mehr „ein
bisschen unpraktisch“
Es ist der Kern.
Chronische Versorgung ist Verlauf, nicht Ereignis
Sie funktioniert nur, wenn Koordination und Mitwirkung zuverlässig eingebaut
sind
– nicht als Extra, sondern als
Normalfall.
Vielleicht
ist genau das die nächste Stufe der Digitalisierung:
Systeme nicht als digitale Aktenablage zu begreifen, sondern als eine Art
virtuellen Behandlungskoordinator.
Nicht als Ersatz für Hausärzte, Pflege oder Fachdisziplinen – sondern als
digitales Rückgrat, das drei Dinge sicherstellt:
• dass Informationen fließen, ohne dass
Patienten Logistik ersetzen müssen
• dass Verlauf und Ziel im Mittelpunkt
stehen (nicht nur einzelne Werte)
• dass Mitwirkung im Alltag möglich wird:
kurze Rückmeldungen, verständliche Ziele, klare Reaktionswege.
Dann
würde Digitalisierung endlich dort ankommen, wo sie hingehört:
im Behandlungsprozess
Und Patienten wären nicht länger Kurier und Sensor „nebenbei“,
sondern Teil eines Systems, das ihre Rolle ernsthaft nutzt
– damit es möglichst vielen möglichst
gut geht, bei machbarem Aufwand.

© Sibylle
Benz auf LinkedIn
KI im Gesundheitswesen scheitert selten an Technologie
Sie scheitert an Verantwortung
Jede
KI-Entscheidung greift in reale Leben ein
In Diagnosen. In Therapien. In Vertrauen.
Responsible AI ist deshalb kein Nice-to-have
Sie ist die Betriebssicherheit moderner Medizin.
Was
wirklich zählt:
Patientensicherheit
vor Skalierung. Klinische Validierung vor Rollout
Transparenz vor Blackbox. Erklärbarkeit vor Effizienz
Fairness vor Bias. Gleichwertige Ergebnisse über alle Populationen hinweg
Datenschutz als Fundament. Nicht als Compliance-Folie
Verantwortung bleibt beim Menschen. Immer
Ärztliche Kontrolle vor Automatisierung
Informierte Zustimmung statt stillschweigender Nutzung
Kontinuierliches Monitoring statt Projektabschluss
Die unbequeme Wahrheit:
Umso mächtiger die KI wird, desto reifer muss Führung werden
Nicht
jede Entscheidung, die automatisierbar ist, gehört automatisiert
Nicht
jede Effizienz schafft Qualität
Nicht
jede Innovation erzeugt Vertrauen
Die
Zukunft der KI im Gesundheitswesen entscheidet sich nicht im Code.
Sie
entscheidet sich in Haltung, Governance und täglicher
Praxis.
Wie verantwortungsvoll ist deine KI heute wirklich?
Glossar:
ELGA
(Österreich):
Dokumentenregister/Verweissystem:
Entlassungsbriefe, Medikation
/ Labor und Röntgen
aus Spital
ELGA GesmbH: gehört je 1/3 Bund,Länder und Sozialversicherung
ePa (Deutschland): Hosting durch
Krankenkassen / Arzt / Apotheke
elektronische
Patientendossier (EPD) / “Dossier Medical”: Schweiz
Wieviel Zeit verbringt ihr täglich in ePa, ELGA oder Dossier Medical
im Vergleich zu Facebook, WhatsApp, TikToK, X,
Tinder, Pornhub, etc. ??
Woran das wohl liegt ??
CDA
FHIR
Patient Summary
EHDS
LOINC
DICOM
e-Card/System/SVC/ITSV
eGK/TI/Gematik
Heilberufeausweis
(sichere Identifizierung)
Klardaten / Pseudonymisierung / Anonymisierung: Unterschied !?
Wird laufend aktualisiert
Diskussionsbeiträge an:
christian-husek@sportmedpraxis.com
www.sportmedpraxis.com
www.initiative-elga.at
Impressum