Generative Pretrained Transformer (GPT)  |  EN



Datensätze für GPT-Modelle

GPT-Modelle können durch Feinabstimmung mit themenbezogenen Daten auf die spezifischen Bedürfnisse des deutschen Gesundheitswesens zugeschnitten werden.
Dabei werden relevante Datensätze aus Expertenstandards, Leitlinien und Sozialgerichtsbarkeit in das Modell integriert und das Modell wird neu trainiert.
Auf diese Weise können GPT-Modelle spezifische Informationen für das Gesundheitswesen bereitstellen.
ChatGPT von OpenAI1 wurde dazu entwickelt, Text auf der Grundlage von Mustern, die es aus einer großen Menge an Trainingsdaten gelernt hat, zu generieren.
"Der Chatbot beruht auf einem Computermodell, das mithilfe von Methoden der künstlichen Intelligenz (KI) auf die Verarbeitung sprachlicher Daten trainiert wurde. Er kann in kürzester Zeit eloquent erscheinende Antworten zu den unterschiedlichsten Themen generieren, ganze Essays oder Computerprogramme erstellen und Sprachstile wie Gedichte, Witze oder Erörterungen verwenden - und das in verschiedenen Sprachen." 2
Es verwendet natürliches Sprachverständnis, um Abfragen und seine eigenen internen Datenbanken zu analysieren, um schnell und effizient Antworten zu liefern und greift auf Datenquellen von Drittanbietern wie Datenbanken, APIs und Webseiten zu, um detailliertere Antworten zu erhalten.
Das Training der Modelle erfolgt in zwei Phasen:
In einem ersten Schritt liest das System weitgehend eigenständig (unüberwacht) große Mengen an Texten ein und bildet daraus seine Parameter.
Im zweiten Schritt erfolgt mithilfe von menschlichem Feedback eine Feinjustierung des Modells auf seine spezielle Aufgabe.
Dieser zweite Schritt setzt ein detailliertes Wissen des deutschen Gesundheitswesens und seiner regulativen Instrumente voraus.
Am Beispiel der Hilfsmittel Definition durch das Bundessozialgericht werden Defizite der ChatGPT-3 Antworten deutlich.

Abhängigkeit der Resultate von der Qualität der Eingangsdaten

  • Feinjustieren vorhandener Texte.
  • Validierung von Modellen zur Input- oder Output-Überwachung.
  • Training mit menschlichem Feedback.
  • Informationsextraktion aus unstrukturierten oder halbstrukturierten maschinenlesbaren Dokumenten extrahieren.
  • Datenpools und Trainingtools bereitstellen.

Systembedingte Grenzen

GPT-Modelle weisen bisher system- bzw. architekturbedingte Grenzen auf.

Der Output kann nur so gut sein wie das, was an Input erhalten wurde.

Die verzerrte Repräsentation bestimmter Texte, kann sich in den Antworten des Systems widerspiegeln und fehlerhafte Inhalte verstärken.




Fehlende Abstraktionen

  • Große Menge von Trainingsdaten werden bearbeitet, ohne Abstraktionen bilden zu können.
  • Verbesserung des Ergebnisses durch Ausgabe einer alternativen Lösung.
  • Plausibel erscheinende Ausgabe, die aber durch die zugrundeliegenden Daten nicht gedeckt ist.

Gesundheitswesen

Je mehr Parameter ChatGPT umfasst, desto seltener werden faktenorientierte Antworten gegeben.

ChatGPT hat Schwierigkeiten, Quellen für seine Aussagen anzugeben.

Die verzerrte Repräsentation bestimmter Texte, kann sich in den Antworten des Systems widerspiegeln und fehlerhafte Inhalte verstärken.


Feinjustierung von GPT-Modellen

Modifikationen an GPT-Modellen verfolgen das Ziel, unmittelbar im Gesundheitswesen eingesetzt zu werden und die Kompetenz aller Akteure und Stakeholder zu erhöhen.
Vorhandene Datensätze durch Informationsextraktion verbessern die Fähigkeit der GPT-Modelle, spezifische Aufgaben im deutschen Gesundheitswesen zu lösen.
Das Training wird auf bestimmte Datensätze und Versorgungssettings und -szenarien fokussiert.
Beispiele formalisierter Wissensbestände, die in Trainingsdaten aufgenommen werden.

Bundessozialgericht (BSG) zur Pflicht der Reha-Träger im AHB Verfahren.



Bundesgerichtshof (BGH) zur Zulässigkeit eines organisierten Entlassungsmanagements.



DNQP Expertenstandard 4 zur Erhaltung und Förderung der Mobilität in der Pflege.



Dadurch werden sich GPT-Modelle in Bezug auf Transparenz und Erklärbarkeit verbessern, so dass es für Leistungserbringer und andere Beteiligte im Gesundheitswesen einfacher wird, zu verstehen, wie das Modell zu seinen Empfehlungen gekommen ist.

Konformitätsbewertungsverfahren auf Grundlage der Bewertung des Qualitätsmanagementsystems

Zukünftig müssen KI-Systeme für das Gesundheitswesen Bestimmungen über die technische Dokumentation enthalten und ein Konformitätsbewertungsverfahren auf Grundlage der Bewertung eines Qualitätsmanagementsystems durchlaufen.5
Konformitätsbewertungsverfahren und Qualitätsmanagementsysteme für GPT-Modelle müssen aber insbesondere für die im Gesundheitswesen betrachteten, sehr komplexen Modelle noch deutlich weiterentwickelt werden.
Ein Trainingsdaten-Pool wird aus unstrukturierten oder halbstrukturierten maschinenlesbaren Dokumenten aufgebaut, entsprechend definierter Qualitätskriterien gepflegt und kann interessierten Organisationen zur Verfügung gestellt werden.
Als Business Coach biete ich die Beratung und fachliche Unterstützung bei der Auswahl von Trainingsdaten-Pools und eine Validierung der GPT-Modelle zur Input- oder Output-Überwachung.
Bei der Gestaltung des Designs von GPT-Modellen zur Entscheidungsunterstützung ist sicherzustellen, dass die Ergebnisdarstellung in einer Form geschieht, die Gefahren etwa von Automatismen (Automation Bias) transparent macht, ihnen entgegenwirkt und die die Notwendigkeit einer reflexiven Plausibilitätsprüfung der jeweils vom KI-System vorgeschlagenen Handlungsweise unterstreicht.6

1 Das Unternehmen OpenAI, das ChatGPT entwickelt hat, wurde Ende 2015 gegründet und dabei von einer Reihe von Investoren und Gründern aus dem Umfeld des kalifornischen Gründerzentrums Y Combinator unterstützt, darunter Elon Musk und Peter Thiel.
2 Albrecht S.: ChatGPT und andere Computermodelle zur Sprachverarbeitung – Grundlagen, Anwendungspotenziale und mögliche Auswirkungen; Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag, TAB-Hintergrundpapier Nr. 26, Berlin, April 2023.
3 Bundesverband der Unternehmen der Künstlichen Intelligenz in Deutschland e.V.: Large European AI Models (LEAM), Machbarkeitsstudie - Große KI-Modelle für Deutschland, Berlin, Mai 2023.
4 Hochschule Osnabrück - Deutsches Netzwerk für Qualitätsentwicklung in der Pflege (DNQP): Arbeitsunterlagen zur Fachkonferenz zum Expertenstandards nach § 113a SGB XI; Erhaltung und Förderung der Mobilität in der Pflege, Osnabrück: 28. März 2014.
5 Europäisches Parlament 2019-2024: P9_TA(2023)0236, Gesetz über künstliche Intelligenz, Abänderungen des Europäischen Parlaments vom 14. Juni 2023 zu dem Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (Gesetz über künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union (COM(2021)0206 – C9-0146/2021 – 2021/0106(COD), Brüssel, 14. Juni 2023.
6 Deutscher Ethikrat: Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz, Stellungnahme, Berlin, 20.03.2023.