KI-Verordnung (AI Act) – Auswirkungen für Medizinprodukte

Prüfschema
Die KI-Verordnung der Europäischen Union markiert einen ordnungspolitischen Meilenstein.
Erstmals wird der Einsatz von Künstlicher Intelligenz europaweit verbindlich geregelt – risikobasiert, sektorspezifisch und mit klar zugewiesenen Verantwortlichkeiten.
Was früher Auslegungssache war, folgt nun festen Leitplanken: von der Zweckbestimmung über die Risikoklassifizierung bis hin zu Dokumentations-, Transparenz- und Governance-Pflichten.
Prüfschema: KI-Verordnung (AI Act) – Auswirkungen für Medizinprodukte
Standardisiertes Vorgehen zur Einordnung von KI-Systemen im Kontext der MDR – inklusive Risikoklasse, Hochrisiko-Trigger, „wesentliche Änderung“ und Kernpflichten.
Das Schema unterstützt die Erstbewertung im Projekt-/QM-Setup. Für die formale Einstufung gelten Zweckbestimmung, technische Dokumentation und ggf. Benannte Stelle.
Prüffrage: Ist das System maschinengestützt, arbeitet mit einem gewissen Grad an Autonomie und leitet aus Eingaben ab, wie es Ausgaben (z. B. Vorhersagen, Empfehlungen, Entscheidungen) erzeugt?
- Ja: Weiter mit Schritt 2.
- Nein: Kein KI-System im Sinne des AI Act → Fokus auf MDR/Software-Regulatorik, nicht AI Act-Pflichten.
Grundlage: Definition KI-System (AI Act) und Einordnung/Leitlinienbezug. :contentReference[oaicite:1]{index=1}
Medizinprodukte mit KI können aus drei Gründen vom AI Act betroffen sein:
- Konformitätsbewertung nach MDR erforderlich (Produkt benötigt MDR-Verfahren).
- Das KI-System ist selbst das Medizinprodukt (KI = Produktkern).
- KI ist Teil eines Sicherheitsbauteils innerhalb eines Medizinprodukts.
Grundlage: Einordnung Medizinprodukte mit KI – Gründe der Betroffenheit. :contentReference[oaicite:2]{index=2}
Prüffrage: Welche MDR-Risikoklasse hat das Medizinprodukt (oder die Produktfamilie)?
| MDR-Einstufung | AI-Act-Einordnung (Grundlogik) |
|---|---|
| Klasse I | In der Regel geringes oder minimales Risiko – außer wenn die KI als Hochrisiko-Anwendung gilt (z. B. als sicherheitsrelevantes KI-Bauteil). |
| Klasse II | Hochrisiko-KI-System im Sinne des AI Act. |
| Klasse III | Hochrisiko-KI-System im Sinne des AI Act. |
Grundlage: Zusammenhang MDR-Klasse ↔ AI-Act-Risikoeinordnung (Tabelle 2, inkl. Klasse-I-Ausnahme). :contentReference[oaicite:3]{index=3}
Wenn das System als Hochrisiko-KI einzuordnen ist, sind organisatorisch und technisch u. a. folgende Bausteine verbindlich aufzusetzen:
Governance & Management
- KI-Kompetenz der beteiligten Personen sicherstellen
- Risikomanagementsystem & Qualitätsmanagementsystem (QMS)
- Technische Dokumentation & Aufbewahrung von Aufzeichnungen
- Gebrauchsanweisung / Informationen zur Leistung
Technik & Betrieb
- Datenqualität: repräsentative, vollständige Trainings-/Validierungs-/Testdaten
- Human Oversight: wirksame menschliche Aufsicht & Interpretierbarkeit
- Logging/Aufzeichnungspflichten (Ereignis-Protokollierung)
- Genauigkeit, Robustheit, Cybersicherheit im realen Betrieb
Grundlage: Anforderungen Hochrisiko-KI, Daten-Governance, Human Oversight, Logging, Robustheit/Cybersecurity. :contentReference[oaicite:4]{index=4}
Prüffrage: Wurde ein bereits in Verkehr gebrachtes/ betriebenes KI-System in seiner Konzeption erheblich verändert?
- Nein: Bestehende Zertifizierungen bleiben grundsätzlich nutzbar.
- Ja: Re-Zertifizierung kann erforderlich werden (Änderungskontrolle / erneute Bewertung).
Grundlage: Re-Zertifizierung bei erheblichen Änderungen nach Stichtag; Diskussion „wesentliche Änderung“ und Synchronisierung MDR/AI Act. :contentReference[oaicite:5]{index=5}
Für die Umsetzung zählt die korrekte Rollenklärung:
- Anbieter (typisch: Hersteller/Entwickler) verantwortet Konformität, Dokumentation, QMS usw.
- Betreiber (typisch: Klinik/Praxis/Pflege) muss u. a. KI-Kompetenz im Betrieb sicherstellen.
- Wichtig: Wer an einem Hochrisiko-KI-System wesentliche Änderungen vornimmt, kann selbst zum Anbieter werden (Pflichtenübergang).
Grundlage: Definitionen Anbieter/Betreiber und Pflichtenübergang bei wesentlichen Änderungen. :contentReference[oaicite:6]{index=6}
START
|
|-- (1) KI-System nach AI Act Definition?
| |-- NEIN -> AI Act nicht einschlägig (für KI), MDR/Software-Regeln prüfen
| |-- JA -> weiter
|
|-- (2) Medizinprodukt mit KI (MDR-Kontext: 3 Szenarien)?
| |-- NEIN -> AI Act-Risikoklasse außerhalb MDR-Kontext bestimmen
| |-- JA -> weiter
|
|-- (3) MDR-Risikoklasse?
| |-- Klasse I -> i.d.R. gering/minimal, Ausnahme: KI als Hochrisiko-/Sicherheitsbauteil
| |-- Klasse II/III -> Hochrisiko-KI
|
|-- (4) Hochrisiko-Pflichtenpaket umsetzen:
| - QMS/Risikomanagement, Tech-Doku, Daten-Governance, Logging
| - Human Oversight, Robustheit/Genauigkeit/Cybersicherheit
|
|-- (5) Change Control:
erhebliche/wesentliche Änderung? -> (Re-)Bewertung/Rezertifizierung prüfen