Der AI Act ist da! – Risiko-Einschätzung für Ihr Unternehmen prüfen

Die neuen Vorschriften der KI-Verordnung sollen gelten für Unternehmen, die:

Einstufung von KI-Systemen nach einem risikobasierten Ansatz

Da der Einsatz von KI mit ihren spezifischen Merkmalen (wie z.B. Komplexität, Intransparenz, Datenabhängigkeit, autonomes Verhalten) die Grundrechte und die Sicherheit von Nutzern gefährden kann (aber nicht muss), wendet die KI-Verordnung einen risikobasierten Ansatz an. Die erforderliche gesetzliche Regulierungsstärke hängt von der Risikostufe ab:

  • ein nicht akzeptables Risiko (unacceptable risk) => verbotene AI-Praktiken,
  • ein hohes Risiko (high risk) => regulierte KI-Systeme mit hohem Risiko,
  • ein begrenztes Risiko (limited risk) => Transparenz und
  • ein geringes oder minimales Risiko (low an minimal risk) => Keine Verpflichtungen.

Medizinprodukte mit KI sind in jedem Fall Hochrisiko-KI-Systeme #MedTech

Wie man der Tabelle entnehmen kann, werden Medizinprodukte mit KI-Anwendung automatisch als Hochrisiko-Systeme eingestuft, da diese von den EU-Gesundheits- und Sicherheitsharmonisierungsvorschriften reguliert werden.

Näheres zum AIAct siehe auch „eHealth-Update 2401: KI reguliert“ (bimpress1-Blog)

Für weiteres nehmen Sie bitte mit uns Kontakt auf. Oder hierüber.

Bildquelle: www.seleon.de

Dieser Beitrag wurde unter AI/KI, Allgemein, Certification, Consulting, Digitalisierung, Digitalization, eHealth, Healthcare, Innovation, IT/Cloud, MedTech, Security, Zertifizierung abgelegt und mit , , , , , , verschlagwortet. Setze ein Lesezeichen auf den Permalink.