
Sichere Edge-KI gemäß dem EU-KI-Gesetz: Was Produktteams jetzt tun müssen
Künstliche Intelligenz verändert die Art und Weise, wie Menschen mit eingebetteten und elektronischen Geräten interagieren – von Werkzeugen, die Fabriken antreiben und Energiesysteme überwachen, bis hin zu Instrumenten, die Ärzte unterstützen und autonome Technologien steuern. Doch mit dem Übergang der KI von Cloud-Servern zu physischen Geräten entstehen neue Herausforderungen in Bezug auf Regulierung und Sicherheit.
Das EU KI-Gesetz (Wird in neuem Fenster geöffnet) und das Cyberresilienzgesetz (Cyber Resilience Act) (Wird in neuem Fenster geöffnet) bilden die beiden Säulen dieser neuen Compliance-Landschaft. Gemeinsam definieren sie, wie KI entwickelt, eingesetzt und gesichert werden muss, insbesondere wenn sie auf Edge-Geräten läuft, die außerhalb geschützter Umgebungen betrieben werden.
Der AI Act konzentriert sich auf die ethische Nutzung von KI und betont Prinzipien wie Transparenz, Verantwortlichkeit und „keinen Schaden anrichten“. Viele Edge-Geräte sind sicherheitskritisch, darunter industrielle Steuerungssysteme, autonome Transportmittel und medizinische Geräte, bei denen KI-Entscheidungen direkte Auswirkungen auf die Sicherheit und das Wohlbefinden von Menschen haben können. Aus diesem Grund fallen diese Edge-KI-Systeme ebenfalls unter den EU-KI-Act, der Regeln festlegt, um sicherzustellen, dass sie sicher, transparent und ethisch einwandfrei funktionieren.
Edge-KI wird oft aus Datenschutzgründen gewählt, da die Daten lokal und nicht in der Cloud verarbeitet werden. Aber auch wenn sie auf dem Gerät selbst laufen, fallen diese Systeme unter das KI-Gesetz, weil sie Auswirkungen auf menschliche Nutzer und die Sicherheit haben können. Deshalb gilt die Compliance nicht nur für Cloud-KI, sondern genauso für Edge-KI-Geräte.
„Edge-KI bedeutet, Algorithmen auf Geräten auszuführen, die sich physisch in den Händen anderer befinden und nicht in einem geschützten Rechenzentrum.“
Jaakko Ala-Paavola
Technology Director bei Etteplan
Edge-KI reduziert die Abhängigkeit von Konnektivität und ermöglicht Echtzeitleistung in Offline- oder kritischen Umgebungen, bedeutet aber auch, dass Geräte so konzipiert sein müssen, dass sie während ihres gesamten Lebenszyklus sicher, nachvollziehbar und ethisch einwandfrei funktionieren.
Erfahren Sie, wie Compliance-Anforderungen in praktische Designentscheidungen umgesetzt werden, in „Aufbau vertrauenswürdiger und konformer KI-Geräte mit sicherer Edge-KI“.
Die regulatorischen Rahmenbedingungen verstehen

Zwischen 2024 und 2027 werden mehrere wichtige EU-Rahmenwerke in Kraft treten, darunter die NIS2-Richtlinie (EU 2022/2555) zur Cybersicherheit, das Gesetz zur Cyberresilienz (CRA), das Gesetz zur künstlichen Intelligenz (KI-Gesetz, Verordnung EU 2024/1689) und das Datenrecht (Verordnung EU 2023/2854) über harmonisierte Vorschriften für den Datenzugang und die Datennutzung in Kraft treten.
Zusammen legen diese Rahmenwerke „Secure by Design“ als verbindliches Prinzip für Organisationen und Produkte fest, die innerhalb der Europäischen Union tätig sind. Das bedeutet, dass vernetzte und KI-gestützte Geräte vor dem Eintritt in den EU-Markt eine nachvollziehbare Dokumentation, eine strenge Datenverwaltung und eine vollständige Kontrolle des Software-Lebenszyklus nachweisen müssen.
Unternehmen, die sich darauf vorbereiten, diese Standards in ihrem Produktdesign zu erfüllen, finden weitere Informationen unter KI-gestützte Produkte: Unternehmen dabei helfen, Intelligenz in Wert umzuwandeln (Wird in neuem Fenster geöffnet).
- Das EU-KI-Gesetz (EU AI Act)
Das KI-Gesetz ist das weltweit erste horizontale Regelwerk für künstliche Intelligenz. Es kategorisiert KI-Anwendungen nach ihrem Risikograd und erlegt entsprechend Pflichten auf, die von vollständigen Verboten für Systeme mit „inakzeptablem Risiko“ bis hin zu umfassenden Dokumentations- und Audit-Anforderungen für Systeme mit „hohem Risiko“ reichen. Ziel ist es, sicherzustellen, dass KI-Systeme in Europa sicher und transparent sind und die Grundrechte achten.
- Das Gesetz zur Cyber-Resilienz (CRA)
Parallel dazu legt die CRA Cybersicherheitsanforderungen für digitale Produkte und vernetzte Geräte fest. Hersteller müssen Produkte nach den Prinzipien „Security by Design“ und „Security by Default“ entwerfen, entwickeln und warten, Schwachstellen offenlegen und während des gesamten Produktlebenszyklus Sicherheitsupdates bereitstellen.
Bei Edge-KI überschneiden sich beide Handlungen:
- Das KI-Gesetz regelt das Verhalten der KI-Logik (Ethik, Risikomanagement, Datenqualität).
- Die CRA regelt die Sicherheit des Geräts (Softwareintegrität, Patching, Schutz vor Manipulationen).
Die Einhaltung beider Vorschriften ist für jedes Unternehmen, das KI-fähige Produkte auf dem EU-Markt verkauft, unerlässlich.
Erfahren Sie, wie die Wahl der richtigen Hardwareplattform von Anfang an die Compliance sicherstellt in Die richtige Hardware für Edge-KI auswählen: Von der Idee bis zur Umsetzung (Wird in neuem Fenster geöffnet)
Der Zeitplan der EU-Vorschriften Was tritt tatsächlich in Kraft und wann?
| PHASEN | WICHTIGSTE BESTIMMUNGEN | WIRKSAM AB |
| Phase 1 | Verbote verbotener KI-Praktiken + KI-Kompetenzanforderungen für Organisationen | Feb 2025 |
| Phase 2 | Verpflichtungen für allgemeine KI-Modelle (GPA) | Aug 2025 |
| Phase 3 | Vollständige Konformität für risikoreiche KI-Systeme | Aug 2027 |
Ausnahmen gelten für die Bereiche nationale Sicherheit, Verteidigung, wissenschaftliche Forschung und nicht-professionelle (Hobby-)Nutzung. Das Gesetz schreibt vor, dass alle Mitarbeiter, die KI entwickeln, einsetzen oder nutzen, deren Fähigkeiten, Risiken und Grenzen verstehen müssen. Personal- und Weiterbildungsabteilungen sollten jetzt damit beginnen, diese Kompetenz aufzubauen.
Risikokategorien des KI-Gesetzes

- Inakzeptables Risiko – Verboten (Unacceptable Risk)
Manipulation menschlichen Verhaltens, Social Scoring, biometrische Identifizierung in Echtzeit aus der Ferne, Emotionserkennung in öffentlichen Räumen oder Vorhersage krimineller Absichten. - Hohes Risiko (High Risk)
Produktsicherheits- oder Kontrollsysteme, kritische Infrastruktur und alle Systeme, die Menschen bewerten, wie Bildung, Gesundheitswesen, Personalbeschaffung, Bonitätsbewertung, Migration und Justiz. - Begrenztes Risiko (Limited Risk)
Erstellung oder Änderung von Inhalten, bei denen Transparenz erforderlich ist, z. B. müssen Chatbots oder KI-veränderte Medien offenlegen, dass KI verwendet wurde. - Minimales Risiko (Minimal Risk)
Unterhaltung und Tools mit geringen Auswirkungen wie Spiele oder Spamfilter.
Ein Beispiel hierfür könnte die „Stimmungserkennung“ in einem Forschungsprojekt sein, das die Emotionen von Fahrgästen in Straßenbahnen analysiert. Dies mag harmlos erscheinen, könnte jedoch gemäß dem KI-Gesetz als verboten (Verhaltensmanipulation) oder risikoreich (Emotionserkennung) eingestuft werden. Der Kontext bestimmt die Konformität.
Was „hohes Risiko“ tatsächlich erfordert
A | System- oder Produktanforderungen
- End-to-End-Risikomanagement
- Datenverwaltung und Datenqualitätskontrollen
- Technische Dokumentation und Ereignisprotokolle
- Transparenz und menschliche Aufsicht
- Robustheit, Genauigkeit und Cybersicherheit
B | Organisatorische oder prozessbezogene Anforderungen
- Qualitätsmanagementsystem (QMS) für KI
- Aufzeichnungen und Protokolle zu Korrekturmaßnahmen
- Zusammenarbeit mit Behörden und benannten Stellen
- Bevollmächtigter Vertreter (falls erforderlich)
- Grundrechte-Folgenabschätzung (FRIA) – Bewertung der Auswirkungen Ihres Systems auf menschliche, soziale und wirtschaftliche Rechte.
10-Punkte-Checkliste zur Vorbereitung auf das KI-Gesetz
- Definieren Sie Ihren KI-Anwendungsfall und Ihre Risikoklasse.
- Ordnen Sie Datenquellen und Governance-Verantwortlichkeiten zu.
- Erstellen Sie ein Bedrohungsmodell, das Geräte, Modelle und Daten abdeckt.
- Stellen Sie die vollständige Rückverfolgbarkeit von Modellversionen und Trainingssätzen sicher.
- Erstellen Sie einen Verifizierungs- und Validierungsplan.
- Sorgen Sie für eine Human-in-the-Loop- oder Override-Funktion.
- Implementieren Sie umfassende Protokollierungs- und Audit-Trails.
- Dokumentieren Sie eine Grundrechte-Folgenabschätzung.
- Planen Sie die Überwachung nach der Markteinführung und die Meldung von Vorfällen.
- Überprüfen Sie die Konformität von Lieferanten/Komponenten von Drittanbietern.
Sind Sie bereit, Ihre Edge-AI-Roadmap risikofrei zu gestalten?
Unser multidisziplinäres Team besteht aus KI-Ingenieuren, Sicherheitsarchitekten und Regulierungsspezialisten, die dafür sorgen, dass Compliance zu einem Wettbewerbsvorteil wird und kein Hindernis darstellt.
Unsere Experten erstellen ein Konzept für Ihren Anwendungsfall, definieren Ihre Sicherheitsarchitektur und bereiten die für die Zertifizierung erforderlichen Unterlagen vor. Buchen Sie eine AI Act Readiness Review bei Etteplan. Kontaktieren Sie uns!
„Wir helfen Ihnen bei der Einhaltung der Vorschriften“
Jaakko Ala-Paavola