Logo1


„There are three types of organisations:

those who make things happen,

those who watch things happen and

those who wonder what has happened!“

 

„… improvement never stops!“ ©

Zuletzt bearbeitet :   17. 3. 2026

wird laufend ausgebaut, bitte besuchen Sie uns wieder !
wenn Ihnen ein „broken link“ auffällt, bitte um Nachricht



 Kontakt :  christian-husek@sportmedpraxis.com

Autor:
Dr. Christian Husek

www.sportmedpraxis.com 

 

 

„ELGA 2.0“:
 
KI und ELGA

 

Diese Seite ist gedacht als Informationsplattform und Diskussionsanstoß !

 

 

 

Prolog:



Betrachtungen zum Begriff „Intelligenz“

 

 

e-Health – eigentlich längst möglich…

 


In vielen Ländern ist es Alltag:

Telemedizinischer Kontakt, strukturierte Abklärung, direkte Verordnung, e-Rezept an die Apotheke der Wahl – fertig.


die Voraussetzungen sind längst da:

e-Rezept, ELGA, Telematikinfrastruktur, Anbindung über die e-Card….

Entgegen der Annahme liegt das Problem nicht in der Technik,
sondern in starren Rollenbildern und fehlenden Vision im System...

 

Ein realistischer Weg wäre:

Tele-Health als Primärkontakt, klare Clinical Pathways, interprofessionelle Teams aus Ärzten und anderen GDA`s
– mit definierten Kompetenzen und Qualitätssicherung.

 

Das Ergebnis wäre messbar:

schnellere Versorgung, weniger unnötige Arztbesuche, Entlastung von Praxen und Notaufnahmen – ohne Qualitätsverlust.

 

Die Frage ist nicht, ob das geht.

Die Frage ist, warum wir es uns weiterhin unnötig kompliziert machen.

 

Unser Gesundheitssystem:
KI-unterstützt und menschlich verantwortet !

 

 

 

8 Möglichkeiten für einen gesunden Umgang mit AI
Marcel Biegger | 23.02.2026:

Warum dein Gehirn stärker ist als jedes Modell:

Wir sprechen gerade viel über künstliche Intelligenz.
Was dabei oft untergeht:
Dein Gehirn ist nicht ersetzbar,
vor allem wenn es um Kreativität, Intuition, soziale Intelligenz und flexible Problemlösung geht

Neurowissenschaftlich ist klar:

Genau diese Kombination macht uns Menschen unersetzbar

 

8 Empfehlungen
von Hirncoach (u.a. Barbara Studer, PhD, Andreas Monsch Dr. Maria Brasser-Michel ) und aktueller Hirnforschung:

 

 

1. Nutze KI als Werkzeug – nicht als Denk-Ersatz

Cognitive Offloading bedeutet: Wir lagern Denken aus (z.B. an Apps, Kalender, Navigationssysteme oder KI).
Das ist sinnvoll, aber nur bis zu einem gewissen Punkt.

Wenn wir ganze Denkprozesse an KI abgeben, geschieht in unserem Gehirn folgendes:

Hirngesund heisst: KI entlastet dich, aber sie ersetzt nicht dein eigenes Denken.

 

2. Erst selber denken – dann KI nutzen:

Bevor du ChatGPT & Co fragst:
Formuliere zuerst deine eigene Idee, Struktur oder Lösung
Dann nutze KI, um Lücken zu schliessen, Beispiele zu finden, Texte zu polieren oder Alternativen zu generieren

Neurowissenschaftlich geschieht so folgendes:

So bleibt KI ein Verstärker deines Denkens, kein Ersatz.

 

 

3. KI-Ergebnisse immer aktiv prüfen

Grössere Sprachmodelle können „halluzinieren“, also sehr überzeugend Unsinn produzieren.
Wenn du Antworten einfach übernimmst, ohne nachzudenken, hat das folgenden Impact auf unser Gehirn:

Ein hirngesunder Ansatz ist hierbei:

 

So bleibt dein präfrontaler Kortex aktiv, unser Kontrollzentrum für vernünftige Entscheidungen

 

 

4. Nicht für jede Kleinigkeit KI nutzen

Wenn du KI für jede Mail, jede Formulierung, jede kleine Idee nutzt, nimmst du deinem Gehirn wichtige „Alltags-Workouts“.

Das Problem:

Mach es so:

5. KI-freie Zeitfenster und analoges Lernen einbauen

Phasen ohne KI sind kein Luxus, sondern ein neurobiologisches Muss:

Das fördert:

 

Plane bewusst KI-freie Lern- und Denkzeiten ein, dein Gehirn dankt es dir mit Klarheit und besserem Behalten.


6. Kreativität bewusst selbst trainieren

KI kann inspirieren, aber sie erlebt nichts. Kreativität im Gehirn entsteht aus:

Eine starke kreative Leistung braucht dieses Zusammenspiel.

 

Gesünder für unser Gehirn und unsere Denkleistung:

So bleibt dein Default-Mode-Network aktiv, eine wichtige Quelle für neue Ideen und Selbstreflexion

 

7. Konzentration schützen: Multitasking vermeiden !

„Ein bisschen ChatGPT, ein bisschen Mail, ein bisschen WhatsApp, kurz LinkedIn …“

Neurowissenschaftlich ist das kein echtes Multitasking, sondern schnelles Hin- und Herspringen:

 

Besser sind hier folgende Ansätze:

So schützt du deine Selbstregulation und deine emotionale Stabilität

 

 

8. KI bei Kindern und Jugendlichen: spaeter, gezielter, begleitet

 

Das jugendliche Gehirn ist hochplastisch und baut gerade:

Wenn KI zu früh zu viel abnimmt:


Hirngesunde Leitlinien:

So fördern wir Gehirne, die später mit KI verantwortungsvoll umgehen können, statt sich passiv führen zu lassen

Was heisst das alles für uns im Alltag?

Wenn wir so mit KI arbeiten, schützen wir mentale Gesundheit, kognitive Leistungsfähigkeit
und emotionale Stabilität, bei uns selbst und in der nächsten Generation.

 

 

 

 

 

 

 

Erster Schritt:

Ziele formulieren !

 

1)  Arbeitserleichterung/Zeiteinsparung für Ärzte und andere GDA`s
siehe: Bates: Ten commandements of clinical decision support
 the speed of an information system is the parameter that users value most. If the decision support is wonderful, but takes too long to appear, it will be useless.
When infrastructure problems slow the speed of an application, user satisfaction declines markedly.
Our goal is subsecond ‘‘screen flips’’ (the time it takes to transition from one screen to the next), which appears anecdotally to be the threshold that is important to our users.
While this may be a difficult standard to achieve, it should be a primary goal

 

2)   Verbesserung der Behandlungsqualität


Nicht-Ziel:

Unhonoriert für die Verwaltung zu arbeiten !

 

 

 

 

 

 

Themen:

 

 

1)   Welchen Impact hat KI in der Medizin ?

 

2)    Welchen Nutzen hat der Patient ?

3) Welchen Nutzen haben Ärzte und andere Behandler ?

 

4)    Welchen Nutzen haben wir (Ärzte, Patienten) von der „Diagnosecodierung“

 

5)    Welcher zusätzliche Kosten- und Arbeitsaufwand KI in ELGA auf uns zu ?

 

6)    Wie wird dieser Mehraufwand abgegolten werden ?

 

7)    Wie sehr belastet oder fördert die KI in ELGA die Arzt-Patienten-Beziehung ?

 

8)    Datenschutzaspekte

 

9)     KI und Haftung

 




 

Was AI kann und können sollte:

Ein Bild, das Text, Schrift, Screenshot, Dokument enthält.

KI-generierte Inhalte können fehlerhaft sein.

 

 

 

 

 

Ad 1) Welchen Impact hat KI in der Medizin ?


KI wird in der Medizin ähnlichen Impact bekommen wie Automatisierung im Cockpit eines Luftfahrzeuges

 

Beispiel aus einem U.S. Werbe-Prospekt für AI im medizinischen Alltag

„91 % of providers report a reduction in digital fatigue“:
heißt: wir sind derzeit und seit Jahren zunehmend durch PC-Bedienung überlastet !

„30-60 minutes saved per clinician per day on average
das Hauptziel muß daher heißen: WENIGER Zeit am Computer bei gleichzeitig verbesserter Information
mehr Zeit für und mit dem Patienten


„AI ensures a smooth discharge process for patients and that providers get paid for their care“

 

 

Ad 2) Welchen Nutzen hat der Patient ?

Kurz gesagt:

Sinnvoll und richtig angewendet kann KI, vor allem auch in Kombination (mit einer noch wesentlich zu verbessernden) ELGA  
( “ELGA 2.0” )
die notwendige Informationsbeschaffung zur optimalen Vorbereitung einer ärztlichen Konsultation und zur konsequenten Befolgung ärztlicher Anordnungen verbessern

Ein Beispiel aus Deutschland (BARMER eCare Gesundheits-App) zeigt:

Es gibt Medikamenten Wechselwirkungsprüfungen, die funktionieren.
Personalisierte Impferinnerungen, die Leben retten können.
Digitale Beipackzettel, die Sicherheit geben.

Und trotzdem, die Akzeptanz ist schwach.

Nur  6% der Versicherten nutzen sie.

Warum nutzen 94% ihre App nicht?:

Die einfache Antwort wäre “Das persönlich Registrierungsverfahren hat Medienbrüche und ist zu kompliziert.”

Die wirkliche Antwort ist unbequemer:

Es fehlt die Alltagsrelevanz.

 

Weil die meisten Krankenkassen die App weiter nur  als Datenspeicher denken.

Nicht als täglichen Begleiter.

 

Ein Gedankenexperiment:

Stellen Sie sich vor, Ihr Smartphone könnte nur Fotos speichern.

Keine Wetter-App. Kein Kalender. Keine Nachrichten.

Kein Messenger oder Social Media App zum Teilen der Inhalte mit der Familie.

 

Würden Sie es nutzen?

Genau das ist die so eine App heute für 94% der Menschen.

Ein digitaler Aktenordner.

Ohne ausreichend Mehrwert im Alltag.

 

Was fehlt?:

 

→ Proaktive Warnungen: “Achtung: Wechselwirkung zwischen deinen Medikamenten erkannt”

→ Personalisierte Erinnerungen: “Deine letzte Vorsorgeuntersuchung liegt 3 Jahre zurück”

→ Intelligente Empfehlungen: “Dein Impfschutz läuft ab. Hier sind Ärzte in deiner Nähe”

 

Nicht irgendwann.
sondern täglich.

Die Lücke ist nicht technisch.

Sie ist konzeptionell.

Wir brauchen keine besseren Datenspeicher.

Wir brauchen täglich nützliche Gesundheitsservices.

 

Die Frage ist nicht: “Wie bringen wir Menschen dazu, die App zu nutzen?”

Die Frage ist: “Warum sollten sie?”

Und die Antwort muss jeden Tag sichtbar sein.

Nicht nur beim nächsten Arztbesuch.

 

Was würde Sie dazu bringen, Ihre ELGA täglich zu öffnen?

Einfacheres Onboarding + alltagsnützliche Mehrwerte der individuellen Gesundhaltung.

 

Das wäre doch ein guter Vorsatz für 2026, oder?

©  Jan Gessenhardt auf LinkedIn

 

Ein Bild, das Text, Brille, Clipart, Entwurf enthält.

KI-generierte Inhalte können fehlerhaft sein.

 

„Aber die KI hat gesagt, das ist ein Notfall.“

 

Dieser Satz begegnet Ärztinnen und Ärzten  inzwischen regelmäßig
– nicht nur in der ambulanten Versorgung, sondern zunehmend auch in der Notaufnahme.

 

Patientinnen und Patienten kommen heute häufig mit vorgefertigten Einschätzungen, die auf Internetrecherchen oder der Nutzung künstlicher Intelligenz beruhen.
Diese Entwicklungen können informierend und unterstützend sein, bergen jedoch auch Risiken:
Informationen sind oft verkürzt, kontextlos oder medizinisch nicht korrekt, werden aber mit großer Überzeugung vertreten.

 

Für Ärztinnen und Ärzte entsteht daraus eine besondere Herausforderung.
Neben der fachlichen Entscheidungsfindung gilt es, zahlreiche Rückfragen auszuhalten:

Warum die KI nicht recht haben könne,
warum eine andere Einschätzung getroffen wird,
warum trotz scheinbar eindeutiger Informationen weitere Diagnostik notwendig ist.

 

Gerade im klinischen Alltag – häufig unter Zeitdruck – erfordert dies ein hohes Maß an Kommunikationskompetenz, Empathie und fachlicher Sicherheit.
Die Balance zwischen patientenzentrierter Begleitung und medizinischer Verantwortung zu finden,
ist anspruchsvoll und zentraler Bestandteil der ärztlichen Professionalisierung.

 

Diese Fähigkeiten sind essenziell für eine qualitativ hochwertige Versorgung
– und sie müssen in der Weiterbildung aktiv gefördert und begleitet werden.

 

 

 

 


Ad 3) Welchen Nutzen haben Ärzte und andere Behandler von „ELGA 2.0“ ?:


Rasche Literatursuche
z.B. heute schon in https://www.openevidence.com

-      ELGA 2.0könnte unsere ärztliche Arbeit wesentlich unterstützen wenn die Strukturierung und Codierung

-      der (hoffentlich vorhandenen) Befunde so “granulärwäre
daß wirklich
ärztliches Wissen IT-mäßig in der Dokumentation abgebildet wäre
und damit die notwendige Kommunikation zwischen Ärzten und anderen GDA`s massiv verbessern könnte

-      etablierte Diagnostik (Mammographie, diverse -skopien, MR,CT) wird bereits heute KI-mäßig unterstützt




 

 

 

 

 

Ad 4) Welchen Nutzen haben wir alle (Ärzte und Patienten) von „ELGA 2.0“:

Unterstützung durch:
 
- KI assistiertes Terminmanagement
- KI-assistierte
Anamnese,
- KI-assistiertes
Informationsmanagement des Arztes
- KI-assistierte
Patientenberatung
KI-assistierte Dokumentation

Ob Systeme wie  321Med,  “Tandem”, Praxispal, u.v.m.   in der Praxis wirklich
den versprochenen Nutzen bringen wird sich zeigen


ChatGPT Health u.a.: Wer haftet, wenn der KI-Gesundheitsrat tötet?

Ein 19-Jähriger ist tot.  Er hat ChatGPT um medizinischen Rat gefragt.
Und die KI hat ihm geantwortet
Ohne Warnhinweise, ohne Nebenwirkungen, ohne den Hinweis, einen Arzt aufzusuchen
Wenige Tage später starb er an einer Überdosis.

3 Gedanken dazu:
1. KI ist kein Arzt. War es nie. Wird es in absehbarer Zeit nicht sein
2. Wer KI-Tools im Gesundheitsbereich anbietet, muss reguliert werden. Punkt !
3. Wir brauchen dringend mehr KI-Bildung. Menschen müssen verstehen, was diese Tools können und was nicht

Der tragische Tod dieses jungen Mannes ist ein Weckruf !
Die Frage ist nur:  Hören wir hin?
Was denkst du, sollte es ein Mindestalter oder eine Pflicht-Warnung für KI-Gesundheitsberatung geben?

 

Kein Stift. Kein Laptop. Kein Mitschreiben.

Aber nach 10 Minuten: Fertiges Arztprotokoll.
Wie?
Ich war diese Woche beim Arzt. Und mir ist etwas aufgefallen.
Der Arzt schaut mich an. Die ganze Zeit. Nicht auf den Bildschirm. Nicht ins Notizbuch. Nur auf mich.
Wir reden. Über Symptome. Über Diagnose. Über Behandlungsoptionen.

10 Minuten.

Am Ende sagt er: "So, das Protokoll ist fertig. Schauen Sie mal."
Ich: "Aber... Sie haben doch gar nichts getippt?"
Er lächelt: "Speech-to-Text. Mit KI. Läuft im Hintergrund."
Das Protokoll war da. Vollständig. Strukturiert. Korrekt.
Ich frage nach dem System. Mistral. Macht Sinn, europäisches Modell, datenschutzkonform.
Genau die richtige Wahl für sensible Patientendaten.

 

Und dann sagt er etwas, das hängen bleibt:

"Ich habe 8 Minuten pro Patient. Früher habe ich 3 davon mit Tippen verbracht. Jetzt kann ich 8 Minuten zuhören."
Das ist KI, wie sie sein sollte.
Nicht als Ersatz. Als Unterstützung.
Der Arzt tut das, wofür er ausgebildet ist: Zuhören. Analysieren. Diagnostizieren. Empathie zeigen.
Die KI macht den Rest: Dokumentieren. Strukturieren. Protokollieren.

KI funktioniert genau dort:
- Wo sie repetitive Aufgaben übernimmt (Dokumentation, Protokollierung)
- Wo sie dem Menschen Zeit gibt, sich auf das Wesentliche zu konzentrieren
- Wo sie im Hintergrund arbeitet, ohne im Weg zu stehen

Der Arzt nutzt KI nicht, weil es modern klingt.
Er nutzt sie, weil er dadurch ein besserer Arzt sein kann.

Das ist der Unterschied.

 

Habt ihr schon Beispiele für KI-Einsatz erlebt, wo ihr dachtet: "Genau SO sollte es sein"?

( © gefunden auf LinkedIn )

 



 




Ad 5) Welcher zusätzliche Kosten- und Arbeitsaufwand kommt mit der „ELGA 2.0“ auf uns zu ?

Implementationskosten in die Arztsoftware : hoffentlich überschaubar
Laufende Kosten für Softwarewartung: 
ebenso
Arbeitsaufwand:
abhängig von Thematik
letztlich sollte uns KI Zeit sparen für die persönliche, direkte Patientenbetreuung !



 

 

Ad 6) Wie wird dieser (vor allem technische und zeitliche) Mehraufwand abgegolten werden ?

wurde bisher nicht diskutiert

Tarifkataloge gehören längst aktualisiert … !

 

 



Ad 7) Wie sehr belastet oder fördert die KI in ELGA die Arzt-Patienten-Beziehung ?


Als Informations-Werkzeug
zur medizinischen Kommunikation ist KI in üblichen KIS und ASW noch ungeeignet.

Wirklich intelligenteDateninterpretation ist dzt. noch nicht möglich
siehe dazu auch:

„KI“ versus menschliche Entscheidungsfindung im Gesundheitsbereich: Eine Standortbetrachtung …


Dies könnte auch dadurch bedingt sein daß Patienten ausirgendwelchenGründen nicht daran interessiert sind daß
 ihre Daten/Informationen über Krankheiten, etc. im “System” registriert sind


 

Ad 8)    Datenschutzaspekte

Unseres Erachtens in einer persönlichen Arzt/Patientenbeziehung unproblematisch !:

Einsicht in Zugriffsprotokolle wie in ELGA für Patienten obligat !


 

10)   KI und Haftung



Arzthaftung beim Einsatz von KI in der Medizin.

 

Darf KI eingesetzt werden (u.a. Therapiefreiheit, (un-)zulässige Delegation an Nichtärzte?) und
welche Anforderungen gelten ("Neulandmethode", Behandlungsstandard?)? Muss KI vielleicht sogar eingesetzt werden?
Wie steht es um die notwendige Aufklärung?
Kann eine KI gegebenenfalls auch selbst aufklären?
Haftet der Arzt für Fehlfunktionen bzw. unerwartetes Verhalten der KI?
Sind solche Systeme ein vollbeherrschbares Risiko?
Gelten die Grundsätze der horizontalen Arbeitsteilung?
Wirtschaftliche Aufklärung (§ 630c Abs. 3 S. 1 BGB) und Dokumentation (§ 630f BGB) durch die KI?
Behandlung durch die KI als "automatisierte Einzelfallentscheidung" i.S.d. Art. 22 Datenschutz-Grundverordnung (DS-GVO)?
Large Language Models in der Medizin,
Ärztliche Fernbehandlung

 

 

 

 

 

Weitere Informationen:



ELGA-Cockpit

 

EHDS

Interoperability Framework of the European Health Data Space for the Secondary Use of Data:
Interactive European Interoperability Framework–Based Standards Compliance Toolkit for AI-Driven Projects

 

 

 

Diagnose-Codierung

 

 

 

Ein Blick über den Tellerrand:

Die Amerikaner haben zumindest schon die Ziele erkannt und schön formuliert ...
...ob es wirklich funktioniert kann ich nicht prüfen

 

 

 

 

Epilog:


Welche Werte steuern eigentlich medizinische KI?

 

 

Künstliche Intelligenz beeinflusst klinische Entscheidungen immer stärker,
aber wessen Werte stecken eigentlich in diesen Systemen?

 

Sind sie deckungsgleich mit dem, was Ärzte, Patienten oder Kostenträger erwarten?

 

Ein aktueller Artikel in Nature Medicine von  Kohane und Manrai bringt das Problem auf den Punkt:

 

Klinische Entscheidungen sind nie wertneutral.

Trotzdem dringen KI-Systeme in hoch sensible Bereiche vor, oft ohne klaren Rahmen,
welche Prioritäten (z.B. Nutzen, Gerechtigkeit, Kosten, Autonomie) sie widerspiegeln.

 

Verdeckte Optimierung für Nicht-Klinisches.

Wird KI in Triage, Utilization Review oder Therapieempfehlungen eingesetzt, kann sie stillschweigend auf Kostenreduktion
 oder Effizienz optimieren, statt auf Patientenwohl oder Fairness.

 

Konkrete Beispiele zeigen Risiken:

COVID‑19‑ICU-Triagetools und Algorithmen von Kostenträgern haben bereits gezeigt,
wie fehl ausgerichtete Werte zu Schaden, Variabilität und rechtlichen Konflikten führen können.

 

LLMs reagieren extrem auf „Werte‑Framing“.

Die gleichen Modelle geben andere Empfehlungen, je nachdem ob sie „als Ärzte“ oder „als Kostenträger“ agieren sollen

Das macht deutlich: 
Wer das Framing kontrolliert, bestimmt die Werte der Empfehlung

 


Benchmarks zeigen hohe Streuung.

Unterschiede zwischen Top‑LLMs und Instabilität innerhalb eines Modells belegen:
Die Übereinstimmung mit ärztlichen Standards hängt stark vom Kontext ab

 

Vorschlag: Ein „Human Values Project“:

Ziel ist, Entscheidungen und Werturteile von
Ärzten, Patient, Kostenträgern, Ethiker und Public Health
im grossen Massstab zu erfassen und zu kartieren.

 



Rolle der Kliniker:

Wenn Entscheidungen am Point of Care inkl. Begründung dokumentiert werden, entstehen wertvolle „Real‑World‑Signale“,
die mit KI‑Outputs verglichen und zur Ausrichtung genutzt werden können.

 

Rolle der Entwickler:

Modelle müssen so gebaut werden, dass

- Entscheidungswege protokolliert,

- Erklärungen generiert und

- Werte bewusst an bestimmte Stakeholder oder ethische Frameworks (z.B. Gerechtigkeit, Transparenz, Patientenzentrierung) angepasst werden.

 

Fazit aus Sicht eines KI‑Beraters:

Vertrauenswürdige medizinische KI entsteht nicht „automatisch“ durch gute Modelle,
sondern durch bewusste Wertentscheidungen und interdisziplinäre Zusammenarbeit:

Klinik, Patientenvertretung, Ethik, Verhaltensforschung, Technik


Wer diese Diskussion nicht aktiv führt, überlässt die Wertausrichtung von KI dem Zufall, oder reinen Marktanreizen



 

 Wenn wir KI in der Medizin einsetzen, müssen wir immer mitdenken:

Für wen optimiert dieses System und nach welchen Werten?




 

Patienten sehen KI in der Grundversorgung differenzierter, als viele Strategiepapiere vermuten.
Sie lehnen KI nicht ab
Ihre Akzeptanz ist aber an klare Bedingungen geknüpft.

 

 

Patienten erkennen das Potenzial von KI zur Effizienzsteigerung.
Besonders bei Dokumentation, Triage und diagnostischer Unterstützung erwarten sie Entlastung.
Diese Akzeptanz basiert auf einer Erwartung

 



Der Zeitgewinn soll nicht dem System gehören, sondern dem Gespräch mit dem Arzt.




Zentral bleibt die ärztliche Verantwortung

 



Patienten wollen, dass Ärztinnen und Ärzte Entscheidungen treffen, Verantwortung tragen und KI-Ergebnisse einordnen.
Delegation an Systeme gilt nicht als Fortschritt, sondern als Vertrauensverlust.



Vertrauen entsteht nicht durch Rechenleistung
Es entsteht durch Beziehung, emotionale Resonanz und wahrgenommene Verantwortlichkeit.
Diese Qualitäten schreiben Patienten Menschen zu, nicht Maschinen.
Gute Ergebnisse ohne Beziehung reichen aus ihrer Sicht nicht.



Viele Patienten fürchten eine schleichende Erosion der Arzt-Patienten-Beziehung.
Weniger Blickkontakt, mehr Bildschirm, weniger Körpersprache.
Nonverbale Signale gelten als Teil der Behandlung, nicht als Beiwerk.



Ein weiteres Spannungsfeld ist Bias
Patienten äußern Sorgen, dass verzerrte Trainingsdaten bestehende Ungleichheiten reproduzieren.
Reale Risiken, keine theoretischen



Datenschutz bleibt ein Kernanliegen
Technische Sicherheit allein überzeugt nicht



Das Misstrauen richtet sich vor allem auf Dritte wie Versicherungen oder Institutionen mit ökonomischen Interessen



Transparenz über Datenflüsse gilt als Voraussetzung für Akzeptanz



Autonomie ist für viele nicht verhandelbar.
Patienten wollen informiert werden, wenn KI ihre Versorgung beeinflusst.
Sie erwarten die Möglichkeit, dem Einsatz zu widersprechen. Aus Selbstbestimmung.



Auch regulatorisch sehen Patienten Nachholbedarf.
Sie fordern klare Regeln, gründliche Tests und gezielte Schulungen für Fachpersonen, bevor KI breit eingesetzt wird.
Geschwindigkeit ohne Kompetenz erhöht aus ihrer Sicht das Risiko.



KI-Prognosen werden ambivalent erlebt
Einige sehen Hoffnung bei komplexen Fällen.
Andere empfinden Vorhersagen über mögliche Krankheiten als zusätzliche psychische Belastung. Kontext und Timing entscheiden.


Auffällig ist eine Forschungslücke.
Keine der untersuchten Studien analysierte explizit die Perspektive von Patienten auf große Sprachmodelle.
Dabei verändern sie Kommunikation, Beziehung und Entscheidungsfindung grundlegend.



Die Botschaft ist klar:
 
KI wird akzeptiert, wenn sie Beziehung stärkt, Verantwortung beim Menschen belässt und Autonomie respektiert

Technische Exzellenz reicht nicht.

 

(Mundzic et al. 2025. Exploring Primary Care PatientsPerspectives on Artificial Intelligence. JMIR AI. DOI 10.2196/72211)

 

 

 

 

 

 

Warum unser ambulantes Gesundheitssystem bei komplexen Patienten an Grenzen stößt:



Ein nüchterner Befund:

 

Das ambulante System ist optimiert für

– Standardfälle

– hohe Frequenz

– kurze Kontakte

– formale Gleichbehandlung

 

Es ist nicht optimiert für

– komplexe Fragestellungen

– Prävention und Einordnung

– leistungsorientierte, informierte Patientinnen und Patienten
– Zeit, Tiefe und Verantwortung auf Augenhöhe

 

 

Das ist kein Vorwurf an einzelne Ärztinnen und Ärzte.

Das ist eine Designfrage

 

 

Dieses System entstand historisch, um ärztliche Unabhängigkeit zu sichern,
staatliche Einflussnahme zu begrenzen und flächendeckende Versorgung zu garantieren.

Das hat gut funktioniert – für Standardmedizin

 

Das strukturelle Problem:

Ein System, das Zugang, Menge und Zeit reguliert, schützt Stabilität
– aber dämpft Qualität, Individualität und Innovation.

Komplexe Patienten werden dadurch nicht schlecht behandelt, sondern strukturell unpassend.

 

Innovation entsteht in solchen Systemen nicht durch Konfrontation, sondern durch klar abgegrenzte Parallelmodelle

 

Nicht gegen das System.

Sondern dort, wo es endet.

 

 

 

 

KI-Interoperabilität:

 

 

Warum Interoperabilität im EHDS nicht bei “FHIR haben wir” endet

 

Stell dir zwei Kliniken in zwei EU-Ländern vor. Beide behandeln die gleiche Erkrankung. Beide dokumentieren Laborwerte, Medikationen und Bildgebung.

Dann kommt eine Forschungsfrage (oder ein KI-Projekt): Welche Patienten profitieren von Therapie A und welche eher von Therapie B?

 

Auf dem Papier klingt es einfach: „Wir tauschen Daten aus.“
 In der Praxis scheitert es oft an drei unsichtbaren Hürden:

 

Auffindbarkeit (Discoverability):

Gibt es überhaupt einen verlässlichen Datenkatalog? (Also eine Art „Bestandsverzeichnis“, das zeigt:
Welche Daten gibt es wo, in welcher Qualität und unter welchen Bedingungen sind sie nutzbar?)
Ohne diese Transparenz bleiben Daten faktisch „unsichtbar“, selbst wenn sie existieren

 

Bedeutung (Semantik):

Gleiche Begriffe sind nicht automatisch gleich. Beispiel HbA1c:
Zwei Kliniken können „HbA1c“ dokumentieren, aber mit unterschiedlichen Codes, Einheiten, Referenzbereichen oder Messmethoden.

Ergebnis: Daten sind zwar vorhanden, aber ohne Harmonisierung nicht zuverlässig vergleichbar (und damit für Analysen/KI riskant)

 

Regeln & Prozesse (Governance):

Selbst bei guter Technik braucht es klare Antworten: Wer genehmigt Zugriff? Welche Nachweise sind nötig?
Wie wird dokumentiert, dass Daten nur für den definierten Zweck genutzt werden?
Was bedeutet „secure processing environment“ (eine kontrollierte, abgesicherte Umgebung, in der Daten verarbeitet werden dürfen)?

Ohne Governance bleibt es bei Einzelfällen statt Skalierung

 

 

Der wissenschaftliche Blick darauf:
 Genau diese Realität adressiert ein aktuelles Paper im JMIR Publications (2025, DOI: 10.2196/69813).
Spannend: Der Beitrag denkt den European Health Data Space (EHDS) als Kette, nicht als Einzelstandard:

 

Von Discoverability (z. B. DCAT-AP) Über Analyse-Modelle (z. B. @OHDSI / OMOP) bis zum Exchange (@HL7 / FHIR)

 

...und verknüpft das mit Governance sowie AI-Risiken (EU AI Act).


Heißt:
Nicht nur „Daten senden“, sondern „Daten finden, verstehen und rechtssicher nutzen können“

 

Zeitdruck ist real: EHDS2-Pflichten werden voraussichtlich ab ca. 2028 wirksam,
einige Datenkategorien (z. B. klinische Studien & Genetik) eher ab 2030.

 

Und ja:
 

OMOP für Analytics
FHIR für Transport, aber für klinische Dokumentation und semantische Modelle im Versorgungsalltag sind Ansätze wie
 openEHR (openEHR International) ein wichtiger Teil des Gesamtbilds
(Nicht „entweder-oder“, sondern „je nach Zweck“.)

 

Das Projekt setzt außerdem auf Austausch:
Projekte können Lessons Learned und Best Practices teilen
damit Interoperabilität in Europa nicht jedes Mal neu erfunden wird.

 

 

 

 

 

 

 

Der Weg zur Umsetzung:

 

1. Kleine Verbesserungen von 1 % täglich führen zu großen Ergebnissen.

2. Deine Systeme bestimmen deinen Erfolg.

3. Gute Gewohnheiten erleichtern die richtigen Handlungen.

4. Das Umfeld prägt das Verhalten.

5. Deine Identität bestimmt deine Gewohnheiten.

6. Beständigkeit ist wichtiger als Intensität.

7. Was du wiederholst, wirst du.

8. Mache gute Gewohnheiten selbstverständlich und schlechte schwierig.

9. Du bekommst, was du misst.

10. Kleine Schritte, die täglich getan werden, bewirken nachhaltige Veränderungen.

11. Gewohnheiten werden durch Wiederholung stärker.

12. Beseitige Reibungsverluste bei den wichtigen Dingen.

13. Erfolg entsteht schrittweise, nicht plötzlich.

14. Kleine Erfolge erzeugen Dynamik.

15. Deine Gewohnheiten zeigen deine Prioritäten.

16. Verändere das System und Du veränderst das Ergebnis.

17. Ein besseres Umfeld führt zu besseren Entscheidungen.

18. Wachstum entsteht durch kleine, nachhaltige Maßnahmen.
19. Motivation schwindet. Struktur bleibt.

20. Man wächst nicht an Zielen, sondern an Routinen.

 

Wenn Ihre Motivation stagniert, verbeißen Sie sich nicht in die großen Zielen.
Konzentrieren Sie sich stattdessen auf die kleinen Gewohnheiten, die Sie unbewusst wiederholen.

Dort liegt der wahre Fortschritt.


Negativ-Beispiel Deutschland:
ePa gegen die Wand gefahren“

 

 

 



Mensch oder KI ?:   Mensch und KI !


KI-Agenten erledigen Aufgaben fast 90 Prozent schneller als Menschen
Die Zahl überzeugt. Die Schlussfolgerung greift zu kurz.

Eine Studie zeigt ein differenziertes Bild:

 

16 realistische Arbeitstasks aus fünf Domänen wurden analysiert.
Datenanalyse, Berechnung, Engineering, Schreiben, Design.

 

Menschen und Agenten folgten zu 83 Prozent ähnlichen Workflows
Der Unterschied lag in der Ausführung

 

KI-Agenten setzen fast durchgängig auf Programmierung. Auch dort, wo grafische Interfaces effizienter wären.
Menschen wechseln flexibel zwischen Tools und Geräten.

Agenten erzeugen plausible Resultate, erfinden Daten, setzen Tools falsch ein, übersehen visuelle Details
 Menschen arbeiten langsamer, liefern präzisere Ergebnisse, saubere Formate und praxisnahe Lösungen.

Bei visuellen und UI-lastigen Aufgaben sinkt die Qualität der Agenten deutlich

Der Einsatz von KI entscheidet über den Effekt:

KI als Unterstützung steigert Effizienz um 24,3 Prozent
 Vollautomatisierung verlangsamt Prozesse um 17,7 Prozent durch Debugging und Kontrolle.

Agenten arbeiten 88,3 Prozent schneller und bis zu 96 Prozent günstiger. Verlässlichkeit sinkt.

 

Die Workflows trennen sich klar:

Programmierbare Schritte profitieren von Agenten. Datenbereinigung, Code, Transformation
Kontextabhängige Schritte profitieren von Menschen. Bewertung, visuelle Kontrolle, Entscheidungen.

 

Hybride Teams zeigen den stärksten Effekt:

Mensch-KI-Workflows steigern Geschwindigkeit um 68,7 Prozent.
Die Qualität bleibt stabil.

Verantwortung und Kontext bleiben beim Menschen

 

Die Autoren empfehlen, menschliche Workflows als Lernbasis für Agenten zu nutzen.

 

Nicht als abstrakte Ziele, sondern als konkrete Demonstrationen

Für die Praxis zählt eine andere Frage:  Welche Schritte sind programmierbar?

Welche brauchen Wahrnehmung, Erfahrung und Verantwortung?

 

Im Gesundheitswesen ist diese Differenz zentral:

Geschwindigkeit ohne Verlässlichkeit erzeugt Risiken.

Augmentierung stärkt Qualität, Sicherheit und Wirksamkeit.

 

Die Zukunft liegt in bewusst gestalteten Mensch-KI-Systemen
Nicht in autonomer Illusion.





 

KI und Kreativität



Die meisten Menschen nutzen KI wie Google mit einer besseren Stimme.

Sie bitten um Zusammenfassungen, Erklärungen, etc..
Aber das ist nicht schöpferisch:  das ist bloß Bequemlichkeit…

KI wurde für etwas völlig anderes entwickelt.
Für diejenigen, die etwas erschaffen wollen.

Die Träumer, Geschichtenerzähler, Designer, Gründer…
Die Studenten, die um zwei Uhr morgens einer Idee nachjagen, die sie noch nicht erklären können.

Man gibt nicht einfach nur KI einen Prompt, man arbeitet mit ihr zusammen…

Man hört hinter den Worten, spürt den Rhythmus dessen, was man meint, und verwandelt Gedanken in Form.

Ein Roman. Ein Lied. Eine Präsentation. Ein Vorschlag. Ein Kurzfilm. Eine Marke.

Man denkt, es baut.
Man stellt sich vor, es vollendet.

Man blinzelt... und etwas, das vorher nicht existierte, existiert nun.

Hier geht es nicht um Geschwindigkeit. Es geht um Freiheit.
Die Freiheit, ohne Reibungsverluste zu schaffen, ohne zu warten, ohne sich zu fragen, ob man dazu in der Lage ist.

Die meisten werden KI nutzen, um Antworten zu erhalten.
Aber einige werden sie nutzen, um etwas zu schaffen, das eine Antwort wert ist
.

Seien Sie nicht gewöhnlich, seien Sie SuperCool.
https://go.supercool.com/super

 

 

 

KI und Qualitätsmanagement:

 

Die größte Lüge im QM steht nicht im Konzept.
Sie steht in der Dokumentation.

In fast jeder Einrichtung sehe ich dasselbe Muster:
Kostendruck, Personalmangel, keine Zeit….

Die Folge:
Dokumentation wird rekonstruiert, nicht geführt.
30 % „nachgepflegt“. Nicht aus Betrug, sondern aus Systemversagen.

Das Problem dabei versteht kaum jemand:
Dokumentation schützt nur, wenn sie die Realität abbildet.

Sobald Papier und Praxis auseinanderlaufen, passiert Folgendes:
- Kosten-Risiko steigt, - Haftungsrisiko explodiert,  - Führung verliert Kontrolle

- Mitarbeitende lernen: „Hauptsache es steht da“

Und genau hier scheitert klassisches QM:
Mehr Formulare lösen nichts,  mehr Anweisungen auch nicht.

Die Lösung ist unbequemer, aber wirksam:

- Fokus auf Hochrisikoprozesse

- Radikale Vereinfachung der Doku

- Klare Verantwortung statt Sammelordner

- Führung, die Realität sehen will, nicht Beruhigung

Gutes QM ist kein Papiertiger, es ist operative Führung mit Beweisen.

Nicht für das Audit, sondern für den Ernstfall und für deinen Schlaf.

 

Jetzt Hand aufs Herz:
Wie groß ist bei euch die Lücke zwischen Dokumentation und Wirklichkeit?

 

 

KI im Dienst der Gesundheit:     Wie KI Diagnosen neu denkt  

 

Personalisierte Medizin ist kein Zukunftstraum mehr, sie kann jetzt entstehen
Von „Schrotflinte“ zu Präzisionstreffer, massgeschneiderten Diagnostik- und Therapiepfaden, besonders in:  

Onkologie  
Herz‑Kreislauf- und Lungenmedizin
Infektionsmedizin  

Gebärmutterhalskrebs-Früherkennung: KI-basierte Zytologie digitalisiert Abstriche und analysiert Zellen automatisiert auf Auffälligkeiten
Pathologen müssen nicht mehr jedes Bild manuell prüfen, das spart Zeit, Ressourcen und schafft Raum für das Wesentliche: die Patienten

Früherkennung von Sepsis bei Kindern auf Intensivstationen
Ein KI-Modell soll eine nosokomiale Sepsis 6–12 Stunden vor ihrem Ausbruch vorhersagen.  
 Je früher die Behandlung beginnt, desto höher die Überlebenschancen und gleichzeitig wird das klinische Personal entlastet.

 

Long-Covid und die Nadel im Heuhaufen
Im grössten Long-Covid-Forschungscluster Niedersachsens helfen KI-Modelle, Muster in hochkomplexen Daten zu erkennen, die dem menschlichen Auge verborgen bleiben.  

 

Ziel: bessere Diagnose und gezieltere Therapieansätze für bislang schwer greifbare Krankheitsbilder.

 

Daten als Schatz, nicht als Risiko
Wir verfügen über eine gute Datenbasis. Die Herausforderung liegt darin, eine Balance zwischen „Datenschutz“ und „Datenschatz“ zu finden.  

 

CAIMed setzt dazu auf einen hybriden KI-Ansatz:

Kombination aus datengetriebenen Modellen (z. B. große Sprachmodelle)
und validierten Wissensdatenbanken (z. B. aus Krankenhausinformationssystemen)
Stichwort: Retrieval Augmented Generation (RAG) für nachvollziehbare und vertrauenswürdige KI-Entscheidungen.

 

Der Mensch bleibt im Zentrum
Trotz aller technischen Möglichkeiten versteht  sich KI klar als „digitaler Assistent“, nicht als Ersatz.  

 

 

Wichtig dabei:  

Vermeidung von De-Skilling bei jungen Ärzt:innen  

Frühzeitige und echte Interdisziplinarität: Mediziner, KI-Forscher und Ethiker
entwickeln Lösungen gemeinsam in konkreten Use Cases

 

 

Nur wenn medizinische Praxis und Forschung von Anfang an zusammenarbeiten, entstehen Werkzeuge,
die im Klinikalltag wirklich helfen, für bessere Diagnosen, schnellere Entscheidungen und eine Gesundheitsversorgung, die den Menschen in den Mittelpunkt stellt.

 

 

 

macht Ki die Medizin besser ?

Österreich gehört im internationalen Vergleich zu den Schlusslichtern im Public Health Index 2025!
Trotz eines der teuersten Gesundheitssysteme der Welt:

Hohe Ausgaben.
Schlechte Ergebnisse.


Und wir reden ernsthaft darüber, dass KI die Medizin besser machen wird?

 

Die Statistik ist eindeutig:

Was wir essen, macht krank.

          hoher Anteil ultrahochverarbeiteter Lebensmittel
zu viel Zucker
zu wenig Ballaststoffe
chronischer Stress
Bewegungsmangel

 

Das Ergebnis:

          steigende Adipositas
explodierende chronische Erkrankungen
metabolische Erkrankungen in immer jüngerem Alter

 

Das ist kein individuelles Versagen.
Das ist ein Public-Health-Desaster.

 

Und während diese Entwicklung läuft,
fehlen in der medizinischen Realität die Basics:

 

Viele relevante Blutparameter

werden entweder:

gar nicht abgenommen
nicht eingeordnet
oder sind vielen Ärzt:innen faktisch nicht mehr präsent

 

Nicht aus Dummheit.

Sondern weil:
sie nicht leitlinienzentriert sind
nicht vergütet werden
im Studium und Alltag kaum vertieft werden

 

Funktionelle Marker, Frühmarker, Zusammenhänge?

Oft unbekannt.
Oft ignoriert.
Oft nicht genutzt.

 

Und jetzt setzen wir KI darauf?

 

KI kann nur mit dem arbeiten, was wir messen, verstehen und einordnen.

 

Wenn:

          relevante Blutparameter fehlen
Werte nur als „normal / auffällig“ gelesen werden
funktionelles Denken nicht stattfindet

 

dann skaliert KI keine Erkenntnis, sondern medizinische Reduktion.

 

Garbage in → garbage out.

 

Chronische Erkrankungen sind kein Algorithmusproblem.

Sie sind:

Regulationsprobleme
Stressachsenprobleme
Ernährungs- und Lebensstilprobleme
Aufklärungsprobleme

 

KI wird:

keine Prävention ersetzen
kein Verhalten nachhaltig verändern
keine Gesundheitskompetenz aufbauen
kein Vertrauen schaffen

 

Die unbequeme Wahrheit

Wir brauchen nicht zuerst bessere Algorithmen

Wir brauchen:

            saubere Basisdiagnostik
bekannte und verstandene Blutparameter
Zeit für Einordnung
medizinisches Denken jenseits von Leitlinien-Minimum
echte Prävention

 

KI auf ein System ohne Grundlagen zu setzen, macht es nicht gesund , sondern effizient krank.

 

Adipositas ist kein Rechenfehler.
Chronische Erkrankungen sind kein Datenproblem.
Schlechtes Public Health ist kein KI-Defizit.

 

Es ist das Ergebnis von:

fehlender Prävention,
fehlender Aufklärung,
fehlender medizinischer Tiefe.

 

 

 Arbeitsalltag heute:

 

8:00 Uhr: 40 E-Mails. Terminanfragen. Rezeptanforderungen. Laborbefunde
12:00 Uhr: Noch 28 unbearbeitet
18:00 Uhr: Noch 15

"Ich wollte Menschen helfen. Jetzt verwalte ich E-Mails."

Das ist das Problem !
Nicht die Digitalisierung
Sondern die falsche Digitalisierung.

 

Vision:

2026 wird das Jahr der Human-AI-Symbiose
Nicht: "Wie ersetzen wir Menschen durch KI?"
Sondern: "Wie befähigen wir Menschen, mit KI Großartiges zu leisten?"



Warum unser Gesundheitssystem uns zu „mündigen Unmündigen“ macht:

Wieder einmal diskutiert die Politik darüber, den Zugang zu Fachärzten zu beschränken. Das Schlagwort: „Patientensteuerung“
Wir verlangen von Patientinnen und Patienten, „mündig“ zu sein und das System nicht zu überlasten
Doch wie soll Eigenverantwortung funktionieren, wenn Patient:innen gleichzeitig im „Blindflug“ durch das System geschickt werden?

„Heute war ich bei meinem Hausarzt / meiner Hausärztin
Und wieder wurde mir klar, wo die eigentliche Baustelle liegt:


Mangelnde Augenhöhe durch fehlende Transparenz“:

 Das E-Rezept: Abrufbar von meiner Karte, aber ohne App sehe ich nicht einmal, welches Medikament mir verschrieben wurde
 Die Diagnose und next steps: Was wurde genau dokumentiert? Ich sehe es nicht
Die Abrechnung: Was kostet mein Besuch das System heute? Keine Ahnung
 Das Gespräch: Eine Zusammenfassung oder ein Protokoll für meine eigenen Unterlagen?

 
Fehlanzeige !

 

Mein Vergleich: Wenn ich mit meiner Kreditkarte bezahle, bekomme ich sekundenunterstützt eine Push-Benachrichtigung:
Wo, wie viel und wofür

Warum ist das im Gesundheitswesen – dem wohl wichtigsten Bereich unseres Lebens – nicht möglich?

Echte Augenhöhe bedeutet:
 Echtzeit-Transparenz: Ich möchte nach dem Verlassen der Praxis auf meinem Smartphone sehen, was diagnostiziert und abgerechnet wurde
 Datenhoheit: Meine Gesundheitsdaten sind kein Herrschaftswissen, sondern die Grundlage für meine Genesung
Niedrigschwelliger Zugang: Informationen müssen so intuitiv verfügbar sein wie Banking-Apps.

 

Solange wir Patient:innen wie Bittsteller behandeln,
denen man Informationen nur auf Nachfrage (oder gar nicht) aushändigt,
 brauchen wir uns über mangelnde Effizienz im System nicht wundern.

 

Wie seht ihr das?
Ist die Forderung nach mehr Steuerung ohne gleichzeitige radikale Transparenz überhaupt fair?

© :  gefunden auf LinkedIn

 

 

 

Die Industrialisierung nahm den Körper
KI nimmt jetzt den Verstand.

 

Die Industrialisierung begann als Körperkritik. Sie erklärte Muskelkraft zur teuren, fehleranfälligen Ressource und ersetzte sie durch Maschinen und Takte.
Der Mensch blieb, aber er wurde in den Prozess eingepasst. Das war entwürdigend, zugleich aber eindeutig: Körper sind endlich, Arbeit ist physisch, Produktivität ist messbar

KI verschiebt jene Kränkung:
Sie stellt nicht mehr nur den Körper infrage, sondern den Geist: Schreiben, Recherchieren, Planen, Codieren, Argumentieren
all das, was lange als „kognitives Eigentum“ galt, wird plötzlich reproduzierbar. Damit brechen grundlegende Übereinkünfte: 

Dass Bildung automatisch schützt
Daß Intelligenz einen sicheren Beruf erzeugt
Daß Denken das unveräußerliche Alleinstellungsmerkmal bleibt

Was bleibt also, wenn der Körper industrialisiert ist und der Geist algorithmisiert wird?
Übrig bleibt nicht „Kreativität“ als Rückzugssphäre, sondern Verantwortlichkeit
KI kann Vorschläge machen, aber sie kann keine Haftung tragen. Sie kann Muster erkennen, aber nicht entscheiden, wofür sie stehen will
Sie kann Sprache imitieren, aber nicht die Konsequenzen besitzen
Der Kern menschlicher Arbeit verschiebt sich von Produktion zu Zurechnung:
Wer definiert das Ziel? Wer setzt Grenzen? Wer trägt die Kosten von Irrtümern?
Wer entscheidet, wann Effizienz nicht mehr der Maßstab ist?

Genau dort liegt die psychologische Polarisierung: Entweder wir nutzen KI als Ausrede, um Urteilskraft zu delegieren
- oder wir nutzen sie als Anlass, Urteilskraft zu disziplinieren
Im ersten Fall entsteht eine bequeme Kultur der Entlastung:
„Das System hat empfohlen.“ Das Resultat sind entkernte Organisationen, in denen niemand mehr wirklich zuständig ist
und Fehler nur noch zirkulieren
Im zweiten Fall entsteht eine reifere Kultur: KI wird Rechenleistung, der Mensch bleibt Instanz.

Praxis beginnt daher mit einer Inventur:

Trennen Sie konsequent zwischen Tätigkeiten, bei denen Ihnen die Antwort egal ist, und
Tätigkeiten, bei denen Sie als Person dafür geradestehen müssen
 Alles, was Reputation, Ethik, Gesundheit, Sicherheit, Personal, Geldflüsse oder strategische Richtung betrifft,
gehört in die zweite Kategorie:
KI darf hier beschleunigen, aber nicht entscheiden
 Führen Sie für solche Entscheidungen ein kurzes Urteil-Protokoll:
Was ist das Ziel, welches Risiko akzeptieren wir, welche Annahme könnte falsch sein, und welches Signal würde uns zwingen, umzusteuern?
Das klingt banal, ist aber die schnellste Methode, aus „KI-Nutzung“ wieder Verantwortung zu machen.

Und zuletzt:
Schützen Sie Aufmerksamkeit wie Kapital. Wer KI ohne mentale Grenze nutzt, bekommt nicht mehr Leistung, sondern mehr Output-Rauschen
 KI stellt den Geist infrage - aber sie zwingt uns damit zu etwas Seltenem:
den Geist endlich als das zu behandeln, was er ist. Eine knappe, zu steuernde Ressource

Im Gesundheitssystem verschärft sich das Argument:

Industrialisierung nahm den Körper der Pflegekräfte
KI nimmt den diagnostischen Verstand
Was bleibt: therapeutische Beziehung.

Ein AI-Agent erkennt Medikationswechselwirkungen
Aber er kann nicht mit Patienten verhandeln, keine Angst nehmen,
nicht spüren, wann ein Symptom mehr ist als ein Datenpunkt.

 

Ihre "Inventur" ist existenziell:

Delegierbar: 
Musteranalyse, Risikoscoring, Dokumentation 

Nicht delegierbar:
Therapieentscheidung, Aufklärung, Vertrauensaufbau

Das Problem: 
Healthcare behandelt KI als "bessere Software" statt als Verschiebung der Verantwortungsarchitektur.

 

Mein Plädoyer: 

Human-AI-Symbiose statt Delegation !

 

Der Arzt wird vom Datenverarbeiter zum Gesunderhalter – weil Routinearbeit wegfällt und Raum entsteht für Verantwortung in Beziehung

"Aufmerksamkeit wie Kapital schützen" wird zur Healthcare-Kernkompetenz: 

Wer Aufmerksamkeit an AI-Output verliert, verliert therapeutische Präsenz

 

Wie sehen Sie Verantwortlichkeit in regulierten Branchen?

©  Prof. Dr. Dr. Oliver Hoffmann  auf LinkedIn

 

 

 

Beispiele, die bereits Realität sind:

 

1. CLEVELAND CLINIC – Intelligente Fallbearbeitung KI-gestützte "Ambient Listening":   Software automatisiert klinische Dokumentation:

Ergebnis:
60% weniger administrative Arbeit
Ärzte haben mehr Zeit für Patienten
Die PA bekommt morgens keine 40 E-Mails, sondern 8 priorisierte Fälle

Das ist Human-AI-Symbiose !

 

2. KAISER PERMANENTE – KI-Gesundheits-Navigator:

4,9 Millionen Patienten in Kalifornien:
KI-gestützter "Intelligent Navigator" versteht Patientenbedürfnisse in eigenen Worten

Ergebnis:
97,7% Genauigkeit bei Erkennung dringender Fälle
88,9% Genauigkeit bei passenden Versorgungspfaden

Patienten fühlen sich nicht verwaltet, sondern begleitet
Das ist Service-Design.

 

3. MAYO CLINIC – Digital Pathology:

20 Millionen digitale Slide-Bilder verknüpft mit 10 Millionen Patientenakten

Ergebnis:
Diagnosen in Minuten statt Wochen
Früherkennung von Krebs verbessert
Das ist Präzisionsmedizin.

 

4. RUANDA:

 Primary Care per Smartphone

Ruanda versorgt seit Jahren Millionen Menschen über digitale ärztliche Erstkontakte per Smartphone

Konkret heißt das:
– über 2,5 Mio. registrierte Nutzer:innen
– tausende digitale Konsultationen pro Tag
– nicht als Pilot, sondern als regulärer Versorgungsweg

Der Ablauf ist bewusst simpel:
Symptome eingeben.
Einschätzung erhalten.
Rezept bekommen.
Abrechnung direkt über die nationale Krankenversicherung.

Gerade in ländlichen Regionen,
in denen Arztpraxen kaum erreichbar sind,
ist das oft der erste echte Zugang zu medizinischer Beratung.

Das Entscheidende ist nicht die App.
Sondern die Priorität.

Der Staat setzt den Rahmen.
Private Anbieter skalieren.
Ziel ist Zugang, nicht technische Perfektion.

Was wir uns anschauen könnten:
Wie Telemedizin bewusst simpel eingesetzt werden kann als niedrigschwelliger Erstkontakt,
der Wege verkürzt, Zeit spart und Personal entlastet.

 

5.  DEUTSCHLAND:

Mehr Überblick, mehr Sicherheit:
Ein Jahr ePA – zwei Hausärzte ziehen Zwischenbilanz
Angesichts der positiven Erfahrungen ärgert sich der Hausarzt darüber, wie lange der Weg zur ePA gedauert hat.
Über 20 Jahre habe man diskutiert, während Deutschland international den Anschluss verloren habe.
Für die Weiterentwicklung wünscht er sich weniger Angst und mehr Pragmatismus.
Sinnvolle Prozesse dürften nicht „totgeplant und totgeredet“ werden

 

 

 

Österreich 2026:

Wir haben alles, was wir brauchen:

9,5 Millionen Erfasste vom e-Card-System
Millionen e-Rezepte jährlich
1 Jahrzehnt  Gesundheitsdaten in ELGA

 

Was fehlt?
Die Vision, wie Human-AI-Symbiose aussieht

Für Versicherte:
Nicht: "Hier ist Ihre ELGA"
Sondern: "Ihre Laborwerte zeigen einen Trend.
 Hier sind 3 Dinge, die Sie heute tun können."

 

Für Mitarbeitende:

Nicht: "40 E-Mails bearbeiten"
Sondern: "8 priorisierte Fälle – KI hat den Rest vorbereitet."

 

Für Krankenkassen:

Nicht: "Wir verwalten Kosten."
Sondern: "Wir halten Menschen gesund."

 

Das ist Human-AI-Symbiose

Nicht Mensch oder KI
Sondern Mensch mit KI

 

 

2026 wird das Jahr, in dem wir entscheiden:

Bleiben wir Verwalter?
Oder werden wir Gesundhalter?

 

 

 

Was ist Ihre Vision für 2026?

 

 

 

KI-Zuverlässigkeit ?

Eine Zuverlässigkeitsanalyse von 52 empirischen Studien zeigt:
Obwohl Teams aus Mensch und KI im Allgemeinen besser abschneiden als allein arbeitende Kliniker,
erreichen sie nur selten echte Synergie oder übertreffen die Leistung des KI‑Modells, das unabhängig agiert.

 

Forschende haben Daten aus klinischen Kontexten ausgewertet, um zu prüfen,
ob „Human‑Machine‑Teaming“ (HMT) tatsächlich die oft versprochene „1 + 1 > 2“-Synergie im Gesundheitswesen liefert.

Die Analyse bestätigt, dass die Zusammenarbeit mit medizinischer KI die Leistung und Zuverlässigkeit von Klinikern,
im Vergleich zu Situationen, in denen Menschen ohne Unterstützung arbeiten, deutlich steigert.

Dennoch erreicht HMT nur selten echte Komplementarität:

Die Teamleistung liegt typischerweise nicht über der Zuverlässigkeit des KI‑Modells allein
oder der „Best-of“-Leistung der beiden Akteure !


 

 

Zwei Faktoren beeinflussen den Erfolg besonders stark:  

  – die Art der Zusammenarbeit (Teaming‑Modus / Workflow)
  – das Erfahrungsniveau des Klinikers.


Gleichzeitige Modi, in denen Kliniker die Fälle und die KI‑Ausgaben parallel betrachten,
führen zu grösseren Zuverlässigkeitsgewinnen
als sequentielle Modi, in denen der Mensch zuerst entscheidet
und erst danach die KI‑Meinung sieht.

Jüngere bzw. weniger erfahrene Kliniker profitieren deutlich stärker
von der Zusammenarbeit mit KI als sehr erfahrene Fachkräfte,
vermutlich, weil Senior‑Kliniker weniger bereit sind, ihre ursprünglichen Urteile zu revidieren.

Überraschenderweise zeigten Senior‑Kliniker in sequentiellen Workflows
nahezu keine Leistungsverbesserungen,
obwohl dieser Ablauf aus rechtlichen Gründen und zur Vermeidung von „De‑Skilling“ oft bevorzugt wird.

Eine Kennzahl, dasKomplementaritäts‑Verhältnis“, zeigt:
Je grösser der Abstand zwischen der Zuverlässigkeit der Maschine und der Zuverlässigkeit des Menschen wird,
desto geringer wird tatsächlich die Fähigkeit des Teams, komplementär zusammenzuarbeiten.

Klinisch bedeutsame Genauigkeitssteigerungen (z. B. +5 % oder +10 %)
hängen stark vom Zuverlässigkeitsvorsprung der Maschine ab,
dennoch erreichen die meisten Teams keine „utopischen“ Synergie‑Niveaus.

Die Ergebnisse legen nahe, dass das blosse Hinzufügen von KI zu klinischen Abläufen nicht ausreicht.
Organisationen müssen den Zeitpunkt der KI‑Einbindung im Workflow gezielt gestalten und die
Zusammenarbeit speziell auf bestimmte Erfahrungslevel der Kliniker zuschneiden, um echten Mehrwert zu erzielen.

 

 

 

KI im Spital:

 

Der administrative Aufwand erdrückt unser medizinisches Fachpersonal, doch der Einsatz von KI zur Entlastung ist ein juristisches Minenfeld
Der neue Leitfaden «KI in der medizinischen Dokumentation» aus der Innovation-Sandbox des Kanton Zürich (verfasst von Stephanie Volz und Raphael von Thiessen)
schafft hier endlich Orientierung. Er zeigt präzise auf, wie Spitäler und Praxen Effizienz gewinnen können, ohne regulatorisch Schiffbruch zu erleiden.

 

Die schmale Gratwanderung:

Ein KI-Tool, das lediglich Sprache in Text umwandelt oder stilistisch glättet, bleibt meist ein administratives Hilfsmittel
Sobald die Software jedoch Inhalte interpretiert, zusammenfasst oder gar Diagnosen vorschlägt,
bewegen wir uns oft im streng regulierten Bereich der Medizinprodukte.

 

Der «Shadow Use» – also die heimliche Nutzung von Tools wie ChatGPT durch überlastetes Personal ist ein massives Risiko
Führungskräfte müssen proaktiv geprüfte Lösungen anbieten, statt die Augen vor der Realität zu verschliessen.

 

Datensicherheit in der Cloud ist machbar:
Mit Ansätzen wie «Confidential Computing», bei dem der Cloud-Anbieter technisch keinen Zugriff auf die Daten hat,
lässt sich auch das Berufsgeheimnis wahren.
Pauschale Cloud-Verbote sind nicht mehr zeitgemäß.

 

Der Bericht beweist eindrücklich: Innovation und Regulierung sind keine Gegensätze,
wenn Verwaltung und Praxis in einer «Sandbox» gemeinsam Lösungen erarbeiten

 

 

 

DIE MEDIZIN-REVOLUTION 2026:
Das Ende der Wartezimmer-Hölle?

 

Warum wir im Jahr 2026 immer noch in Warteschleifen hängen oder monatelang auf Termine warten?

 

Hier sind die 3 krassesten Fakten, die man kennen muss:
KI übernimmt das Ruder (heimlich!):
Wusstest du, dass bereits JEDER ZWEITE Arzt privat KI-Tools nutzt?
Aber Vorsicht: "Shadow AI" ist gefährlich.
Der Report fordert:
Wir brauchen zertifizierte KI-Assistenten JETZT.
2026 wird das Jahr, in dem dein Arzt die Doku in Sekunden erledigt statt in Stunden

Die 20-Stunden-Woche (für die Verwaltung):
Digitale Assistenten sparen einer Praxis bis zu 20 Stunden pro Woche.
Das Ergebnis? Über 1 MILLION zusätzliche Stunden für echte Patientenbehandlung in ganz Deutschland.
Jede Woche!

Nie wieder "Besetzt"-Zeichen:
KI-Telefonassistenten reduzieren unbeantwortete Anrufe um bis zu 75 %.
Dein nächster Termin bucht sich quasi von selbst,
während du noch überlegst, ob du zum Arzt musst

 

Das Ziel für 2026:

Terminbuchung in unter 5 Minuten (für 90 % aller Patienten!)
50 % weniger Papierkram für Ärzte & andere GDA`s
Schluss mit Doppeluntersuchungen dank vernetzter Daten

 

Die Technik ist bereit. Die Patienten (72 %) wollen sie.
Jetzt müssen nur noch die Praxen weiter nachziehen, bevor sie im Admin-Chaos versinken.

 

Was denkst du? Würdest du einer KI deine Terminplanung oder sogar die Vor-Diagnose anvertrauen?

 

Fazit:
Digitale Gesundheit ist kein Sprint – sondern ein Trainingsprogramm

 

Österreich steht in Sachen Digital Health auf einem soliden Fundament,
doch das volle Potenzial ist noch längst nicht ausgeschöpft.
Der durchschnittliche Digital-Fitnesswert liegt bei 4.9 von 10 Punkten
– ein ehrlicher Zwischenstand mit viel Luft nach oben.

 

 

 

Die Ergebnisse von Studien drei zentrale Erkenntnisse:

(1) Die grössten Hürden sind weniger technischer, sondern kultureller Natur
(2) Fortschritt entsteht dort, wo Akteure offen für Kooperation und Experimentieren sind
(3) Digitalisierung gelingt nur, wenn sie als gemeinsames Projekt verstanden wird
– getragen von Fachkräften, Institutionen und Politik.

 

Trotz Herausforderungen gibt es Grund zu Optimismus
Die Innovationskraft der Akteure bleibt hoch, regulatorische Bewegung ist spürbar
und das Vertrauen der Fachkräfte in Digital Health ist ungebrochen.

 

Die Zukunft des Gesundheitswesens entscheidet sich nicht daran, ob wir digitalisieren, sondern wie mutig wir es tun !

 

Hier geht’s zum Report (Print) https://lnkd.in/etYc82e6

Hier direkt reinlesen (Online): https://lnkd.in/eQjtD8VP

 

 



KI und Qualitätsmanagement

 

Ein Thema, das es in einem funktionierenden System gar nicht geben dürfte

Und das Schlimmste ist: Zeitaufwand für Verwaltungsarbeit killt Behandlungsqualität

 

Medizinische Teams haben wirklich keine Zeit:
Es liegt nicht an der "unberechenbaren Pflege" und auch nicht am Stellenschlüssel

Die brutale Wahrheit, die in kaum einem Meeting ausgesprochen wird, lautet:

Die Teams haben keine Zeit, weil sie jeden Tag das Rad neu erfinden müssen

 

Schauen wir uns die Realität auf einer Station an:

Wenn keine klaren Prozesse existieren, wird jede Routineaufgabe zum Improvisationstheater

Eine Fachkraft sucht zehn Minuten nach den passenden Wundauflagen, weil das Lager nicht logisch sortiert ist

Zwei Kollegen diskutieren eine Viertelstunde über die richtige Eingruppierung im ICD10, weil es keine eindeutige Sprachregelung gibt.

Ein anderer telefoniert dem Hausarzt hinterher, weil im Entlassungsbrief entscheidende Informationen fehlten.

 

Das ist betreutes Chaos !

 

Wir haben uns daran gewöhnt, Qualitätsmanagement als bürokratisches Monster zu betrachten
Ein Monster, das wir füttern müssen, um beim Audit nicht negativ aufzufallen

 

Wir produzieren Papier für Ordner, die niemand liest

 

Das ist genau jenes "Abbilden von Qualität",
das in unserer Branche wichtiger geworden ist als die Qualität selbst.

 

Dieses Missverständnis ist fatal

Es führt direkt in die Falle des Organisationsverschuldens,
weil du Sicherheit durch Papierstapel simuliert ist, statt durch gelebte Abläufe.

 

Der pragmatische Shift muss im Kopf beginnen

 

QM ist keine Zusatzaufgabe, die man macht, "wenn noch Zeit übrig ist".
Es ist das Betriebssystem einer funktionierenden Einrichtung

 

Wenn du einen Expertenstandard implementierst, tust du das nicht für den Prüfer
Du tust es, damit der Nachtdienst um 3 Uhr morgens genau weiß, was zu tun ist,
ohne erst lange nachdenken oder improvisieren zu müssen.

 

Ein guter Prozess schenkt Zeit
Er eliminiert die Fragen
Er beendet das Suchen
Er stoppt die Diskussionen und die Unsicherheit
Echte Qualität bedeutet, dass die Dinge einfach funktionieren
Dass der neue Mitarbeiter am ersten Tag produktiv sein kann, weil das System ihn führt
Dass wir aufhören, Feuerwehr zu spielen, und anfangen, echten Brandschutz zu betreiben.

 

Solange QM als lästige Pflichtübung angesehen wird, werden wir immer "keine Zeit" haben.
Sobald wir es als Werkzeug zur Reduktion von Reibungsverlusten begreifen, gewinnen wir die Kontrolle zurück

 

Hören wir auf, Komplexität mit Qualität zu verwechseln

 

Verbringt Ihr Team mehr Zeit mit der Suche nach Lösungen oder mit der Anwendung von Standards?

 

 

 

Kampf der KI-Giganten: Wo bleibt Europa?

 

Während im Silicon Valley ChatGPT,  Claude und Gemini den Takt diktieren,
stellt sich in Europa eine unangenehme Stille ein
Haben wir den Anschluss verpasst? 

 

Wir riskieren, zum reinen Konsumenten US-amerikanischer Technologie degradiert zu werden
Ist der AI Act unser Schutzschild oder unser Grabstein?

 

- Digitaler Vasall vs. Souveräner Akteur
- Regulierungsweltmeister vs. Innovationstreiber

 

Es reicht nicht mehr, nur über Risiken zu sprechen
Wir müssen Lösungen finden, um europäische Werte und brachiale Innovationskraft zu vereinen.

 

Gestalten wir die Zukunft mit, oder schauen wir ihr nur beim Passieren zu?

 

 

 

 

Links:

 

Dietmar Bayer, Präsident der ÖG Telemed und stellvertretender Obmann der Bundeskurie niedergelassene Ärzte, erklärt im Interview mit Sascha Bunda,
wie disruptiv sich die Künstliche Intelligenz auf fast alle Lebensbereiche und natürlich auch die Medizin auswirken kann und wie wichtig eine umfassende und reflektierte Beschäftigung mit dem Thema ist:
„Niemand ist darauf vorbereitet“

Positionspapier zu neuer ELGA-Anwendung e-Diagnose



EU-Bürger haben verstärkt Zugang zu ihren Electronic Health Records (EHRs), aber nur 28% nutzen ihn,
mit wesentlichen Unterschieden über verschiedene sozioökonomische Voraussetzungen 

Wie läßt sich diese Situation verbessern ?

Mehr unter:   OECD Country Health Profiles


Ein Bild, das Text, Screenshot, Zahl, Schrift enthält.

KI-generierte Inhalte können fehlerhaft sein.

 

 

 

 

 

 

High investment is not the same as adequate functioning digital systems :

Ein Bild, das Text, Screenshot, Diagramm, Reihe enthält.

KI-generierte Inhalte können fehlerhaft sein.



For the Netherlands it’s quite ironic, it spends a lot on digital health for many years
but still the digital health system as a whole performs poorly for both professionals and patients.


An inadequate national implementation strategy, lack of coordination and leadership, combined with a dogmatic attitude towardsthe market will solve everything for the lowest price
resulted in a multitude of fragmented dysfunctional IT systems were exchange of information across organisations in health and social care is very difficult with numerous critical incidents annually.


Hospital IT is dominated by one vendor who created a detrimental user lock-in and
the owner ranks now the richest people in NL list with a estimated 1 billion of assets.


Despite warnings from user and authorities and various negative reports since 2011,
the Ministry of Health stubbornly continued with a ‘market approach’.


The current digital landscape in NL is practically beyond repair: too costly and not sufficient (human) resources available.
 It’s a lesson that when it comes to digitalisation, you need a proper national strategy and adequate resources and coordination to implement it.


The irony is that some health system spent a fraction of the Dutch budget and have a much better functional digital health infrastructure.

 one could say this is a typical example of ‘Penny wise but Pound foolish’…
the Dutch obsession with minimising public spending and let’s leave it to-the-market attitude, fired back in a very expensive dysfunctional digital health system
🤭

©   Nick Guldemond auf LinkedIn  7.1.2026

Austria is just on the next step in malfunction and expenses list …

time to change the management …!

 

 

 

 

Wer Chaos digitalisiert, hat danach digitales Chaos.

 

Viele Einrichtungen stehen mit dem Rücken zur Wand. Die Branche schreit nach Digitalisierung.
Die Software-Vertriebler versprechen lückenlose Sicherheit und das Ende der Bürokratie

Das ist eine gefährliche Behauptung
Software löst kein Organisationsverschulden. Software skaliert nur das, was bereits da ist

Wenn Dein QM aktuell ein Papiertiger ist, baust du dir gerade einen digitalen Godzilla

Das Problem: In der analogen Welt merken wir oft noch, wenn eine Vorgabe Unsinn ist. Das Papier ist geduldig.
Eine erfahrene Fachkraft kann es zur Not ignorieren, um den Bewohner zu versorgen

Die Software ist gnadenlos. Sie erzwingt die Einhaltung von Abläufen durch Pflichtfelder,
damit legst du deine Versorgung lahm. Du zementierst Ineffizienz.

Mein Rat an jeden, der Verantwortung trägt:
Bevor du die "große Lösung" ausrollst, machst du den analogen Stresstest.
Ein Prozess darf erst dann digitalisiert werden, wenn er diese 3 Kriterien erfüllt:

- Er wurde auf das absolute Minimum reduziert
- Er dient nachweislich der Sicherheit (und nicht der Beruhigung des Gewissens)
- Er ist in unter 30 Sekunden erledigt

Alles andere ist Geldverbrennung und baut nur eine noch höhere Hürde zwischen Behandler und Patient auf

Pragmatismus vor Pixeln:
Erst aufräumen, dann automatisieren. Niemals umgekehrt

 

Frage an die Strategen: Welchen Prozess hast du zuletzt komplett gestrichen,
BEVOR du über eine Software nachgedacht hast?

© Daniel Schill auf LinkedIn   7.1.2026

 

 

Patienten – wohl oder übel  ?

 

Vielleicht müssen wir uns eingestehen: Die digitale Welt im Gesundheitswesen ist nicht primär aus Behandlung entstanden.
Sie kommt historisch aus Abrechnung und Forschung. Nachweisbarkeit hier, Standardisierung dort.
Beides wichtig – aber beides erklärt, warum unsere Systeme vieles hervorragend können
und trotzdem im Alltag oft versagen: den Verlauf einer Behandlung wirklich zu tragen.

 

Denn parallel hat sich Versorgung weiter fragmentiert:
mehr Spezialisierung, mehr Sektorengrenzen, mehr Schnittstellen, mehr Teilzuständigkeiten.
Digitalisierung „klebt“ dann an den Rändern dieser Fragmente.
Jede Einheit optimiert ihren Ausschnitt, selten den Gesamtverlauf.
Das gemeinsame Bild entsteht mühsam – wenn überhaupt.

 

Und genau in diese Lücke fällt der Patient, wohl oder übel

 

Er wird zum Kurier, weil Informationen nicht zuverlässig fließen: „Bringen Sie bitte alles mit.“
Und er wird zum Sensor, weil zentrale Endpunkte nur über Erleben sichtbar werden:
Belastbarkeit, Schwindel, Schmerz, Nebenwirkungen, Alltagstauglichkeit.

 

Paradox ist nur: Diese Sensor-Rolle wird oft nicht wirklich verarbeitet.
Wenn Erleben und Messwerte nicht zusammenpassen, wird das Erleben schnell als „unspezifisch“ abgetan
– obwohl es häufig der wichtigste Hinweis ist, dass etwas im Systemzusammenhang nicht stimmt:
Timing, Nebenwirkung, Wechselwirkung, falsche Priorisierung.

 

In einer alternden, chronisch kranken Gesellschaft ist das nicht mehr „ein bisschen unpraktisch“
 Es ist der Kern.
Chronische Versorgung ist Verlauf, nicht Ereignis
Sie funktioniert nur, wenn Koordination und Mitwirkung zuverlässig eingebaut sind
 – nicht als Extra, sondern als Normalfall.

 

Vielleicht ist genau das die nächste Stufe der Digitalisierung:
Systeme nicht als digitale Aktenablage zu begreifen, sondern als eine Art virtuellen Behandlungskoordinator.
Nicht als Ersatz für Hausärzte, Pflege oder Fachdisziplinen – sondern als digitales Rückgrat, das drei Dinge sicherstellt:

                   dass Informationen fließen, ohne dass Patienten Logistik ersetzen müssen
                   dass Verlauf und Ziel im Mittelpunkt stehen (nicht nur einzelne Werte)
                   dass Mitwirkung im Alltag möglich wird: kurze Rückmeldungen, verständliche Ziele, klare Reaktionswege.

 

Dann würde Digitalisierung endlich dort ankommen, wo sie hingehört:
im Behandlungsprozess
Und Patienten wären nicht länger Kurier und Sensor „nebenbei“,
sondern Teil eines Systems, das ihre Rolle ernsthaft nutzt
 – damit es möglichst vielen möglichst gut geht, bei machbarem Aufwand.

 

 

Ein Bild, das Text, Kleidung, Mann, Screenshot enthält.

KI-generierte Inhalte können fehlerhaft sein.

©  Sibylle Benz   auf LinkedIn

 

 

 

 

KI im Gesundheitswesen scheitert selten an Technologie
Sie scheitert an Verantwortung

 

Jede KI-Entscheidung greift in reale Leben ein
In Diagnosen. In Therapien. In Vertrauen.

Responsible AI ist deshalb kein Nice-to-have
Sie ist die Betriebssicherheit moderner Medizin.

Was wirklich zählt:

Patientensicherheit vor Skalierung. Klinische Validierung vor Rollout
Transparenz vor Blackbox. Erklärbarkeit vor Effizienz
Fairness vor Bias. Gleichwertige Ergebnisse über alle Populationen hinweg
Datenschutz als Fundament. Nicht als Compliance-Folie
Verantwortung bleibt beim Menschen. Immer
Ärztliche Kontrolle vor Automatisierung
Informierte Zustimmung statt stillschweigender Nutzung
Kontinuierliches Monitoring statt Projektabschluss

Die unbequeme Wahrheit:
Umso mächtiger die KI wird, desto reifer muss Führung werden

Nicht jede Entscheidung, die automatisierbar ist, gehört automatisiert

Nicht jede Effizienz schafft Qualität

Nicht jede Innovation erzeugt Vertrauen

 

Die Zukunft der KI im Gesundheitswesen entscheidet sich nicht im Code.

Sie entscheidet sich in Haltung, Governance und täglicher Praxis.

 

 

Wie verantwortungsvoll ist deine KI heute wirklich?

 

 

 

Glossar:

 

ELGA (Österreich): 
Dokumentenregister/Verweissystem: Entlassungsbriefe, Medikation / Labor und  Röntgen aus Spital
ELGA GesmbH: gehört je 1/3 Bund,Länder und Sozialversicherung

ePa (Deutschland): Hosting durch Krankenkassen / Arzt / Apotheke

elektronische Patientendossier (EPD) / “Dossier Medical”:  Schweiz



Wieviel Zeit verbringt ihr täglich in ePa, ELGA oder Dossier Medical
im Vergleich zu Facebook, WhatsApp, TikToK, X, Tinder, Pornhub, etc. ??

Woran das wohl liegt ??

 

 

CDA

FHIR

Patient Summary

EHDS

 

LOINC

DICOM

 

e-Card/System/SVC/ITSV

eGK/TI/Gematik

Heilberufeausweis

(sichere Identifizierung)

 

Klardaten / Pseudonymisierung / Anonymisierung:  Unterschied !?

 

Spoofing



 

 

 

 

 

Wird laufend aktualisiert

Diskussionsbeiträge an:

christian-husek@sportmedpraxis.com

www.sportmedpraxis.com

 

 

 


….   zurück

 

 

www.initiative-elga.at



Impressum