Przejdź do treści

Bezpieczne Edge AI w świetle unijnej ustawy o AI: Co zespoły produktowe muszą zrobić już teraz?

Sztuczna inteligencja zmienia sposób, w jaki ludzie wchodzą w interakcje z urządzeniami wbudowanymi i elektronicznymi – od narzędzi napędzających fabryki i monitorujących systemy energetyczne, po instrumenty wspierające lekarzy i prowadzące technologie autonomiczne. Jednak gdy AI przenosi się z serwerów w chmurze do urządzeń fizycznych, pojawiają się nowe wyzwaniazwiązane z bezpieczeństwem, które są regulowane prawnie.

Unijna ustawa o sztucznej inteligencji (AI Act) oraz Akt o odporności cybernetycznej (Cyber Resilience Act, CRA) tworzą dwa filary nowego krajobrazu regulacyjnego. Razem definiują, w jaki sposób sztuczna inteligencja musi być opracowywana, wdrażana i zabezpieczana - szczególnie, gdy działa na urządzeniach brzegowych (edge), funkcjonujących poza chronionymi środowiskami.

AI Act koncentruje się na etycznym wykorzystaniu sztucznej inteligencji, z dbałością przejrzystość, odpowiedzialność i „nie szkodzeniu”. Wiele urządzeń brzegowych ma kluczowe znaczenie dla bezpieczeństwa, w tym systemy sterowania przemysłowego, transport autonomiczny czy urządzenia medyczne, gdzie decyzje AI mogą bezpośrednio wpływać na bezpieczeństwo i komfort ludzi. Dlatego systemy Edge AI są również objęte regulacjami AI Act, który ustanawia zasady zapewniające ich bezpieczne, a także przejrzyste i etyczne działanie.

Edge AI jest często wybierane ze względu na ochronę prywatności, ponieważ dane są przetwarzane lokalnie, a nie w chmurze. Jednak, nawet przy działaniu na urządzeniu, systemy te nadal podlegają AI Act, ponieważ mogą wpływać na użytkowników i ich bezpieczeństwo. Z tego powodu zgodność z przepisami dotyczy nie tylko AI w chmurze, ale w równym stopniu urządzeń Edge AI.

"Edge AI oznacza uruchamianie algorytmów na urządzeniach fizycznie, znajdujących się w rękach użytkownika, a nie w chronionym centrum danych".

Jaakko Ala-Paavola

Technology Director w Etteplan

Edge AI zmniejsza zależność od łączności i umożliwia działanie w czasie rzeczywistym w środowiskach offline lub krytycznych, ale oznacza też, że urządzenia muszą być zaprojektowane tak, aby działały bezpiecznie, w sposób możliwy do śledzenia i etyczny przez cały cykl życia.

Dowiedz się, jak wymagania dotyczące zgodności przekładają się na praktyczne decyzje projektowe w publikacji „Building Trusted and Compliant AI Devices with Secure Edge AI”.

Aspekt prawny - spójrzmy szerzej

W latach 2024–2027 zacznie obowiązywać kilka kluczowych dokumentów prawnych UE, w tym: Dyrektywa NIS2 (UE 2022/2555) dotycząca cyberbezpieczeństwa, Cyber Resilience Act (CRA), Artificial Intelligence Act (AI Act, Rozporządzenie UE 2024/1689), Data Act (Rozporządzenie UE 2023/2854) dotyczące ujednoliconych zasad dostępu do danych i ich wykorzystania.

Razem te regulacje ustanawiają zasadę „secure-by-design” jako obowiązkowy standard dla organizacji i produktów działających w UE. Oznacza to, że urządzenia podłączone do sieci i zasilane AI muszą wykazać się pełną dokumentacją, solidnym zarządzaniem danymi i kontrolą całego cyklu życia oprogramowania przed wprowadzeniem na rynek UE.

Firmy przygotowujące się do spełnienia tych standardów w projektowaniu produktów mogą skorzystać z publikacji „AI-Empowered Products – Turning Intelligence into Value”.

  1. The EU AI Act 

AI Act to pierwsze na świecie horyzontalne ramy regulujące sztuczną inteligencję. Klasyfikuje zastosowania AI według poziomu ryzyka i nakłada odpowiednie obowiązki – od całkowitego zakazu dla systemów „nieakceptowalnego ryzyka” po pełną dokumentację i audyty dla systemów „wysokiego ryzyka”. Celem jest zapewnienie, że systemy AI w Europie są bezpieczne, przejrzyste i respektują prawa podstawowe.

  1. The Cyber Resilience Act (CRA) 

Równolegle CRA ustanawia wymagania dotyczące cyberbezpieczeństwa dla produktów cyfrowych i urządzeń podłączonych do sieci. Producenci muszą projektować, rozwijać i utrzymywać produkty zgodnie z zasadami „security-by-design” i „security-by-default”, ujawniać podatności oraz dostarczać aktualizacje bezpieczeństwa przez cały cykl życia produktu.

Dla Edge AI obie regulacje się przecinają:

  • AI Act reguluje sposób działania logiki AI (etyka, zarządzanie ryzykiem, jakość danych).
  • CRA reguluje bezpieczeństwo urządzenia (integralność oprogramowania, aktualizacje, ochrona przed manipulacją).

Zgodność z obiema regulacjami jest kluczowa dla każdej firmy sprzedającej produkty z AI na rynku UE.


Dowiedz się, jak wybór odpowiedniej platformy sprzętowej zapewnia zgodność od początku w publikacji „Choosing the Right Hardware for Edge AI”.

Harmonogram regulacji UE – co i kiedy wchodzi w życie

FazaKluczowe zagadnieniaWejście w życie
Faza 1Zakaz praktyk AI o wysokim ryzyku + wymóg edukacji AI dla organizacjiLuty 2025
Faza 2Obowiązki dla modeli AI ogólnego przeznaczenia (GPA)Sierpień 2025
Faza 3Pełna zgodność dla systemów wysokiego ryzykaSierpień 2027

Wyłączenia obejmują bezpieczeństwo narodowe, obronność, badania naukowe oraz zastosowania nieprofesjonalne (hobbystyczne). Ustawa wymaga, aby wszyscy pracownicy projektujący, wdrażający lub używający AI rozumieli jej możliwości, ryzyka i ograniczenia. Zespoły HR i L&D powinny zacząć budować te kompetencje już teraz.

Kategorie ryzyka w AI Act

  • Niezaakceptowane ryzyko – zakazane 
    Manipulacja zachowaniami, scoring społeczny, zdalna identyfikacja biometryczna w czasie rzeczywistym, rozpoznawanie emocji w przestrzeni publicznej, przewidywanie intencji przestępczych.
  • Wysokie ryzyko 
    Systemy bezpieczeństwa produktów, infrastruktura krytyczna, systemy oceniające ludzi (edukacja, zdrowie, rekrutacja, scoring kredytowy, migracja, wymiar sprawiedliwości).
  • Ograniczone ryzyko 
    Generowanie lub modyfikacja treści, gdzie wymagana jest przejrzystość (np. chatboty, media zmienione przez AI muszą ujawniać użycie AI).
  • Minimalne ryzyko 
    rozrywka i narzędzia o niskim wpływie, np. gry, filtry spamu.

„Rozpoznawanie nastroju” w projekcie badawczym, analizującym emocje pasażerów w tramwajach – może wydawać się nieszkodliwe, ale zgodnie z AI Act może być zaklasyfikowane jako zakazane (manipulacja zachowaniem) lub wysokiego ryzyka (rozpoznawanie emocji). Kontekst decyduje o zgodności.

Co oznacza „wysokie ryzyko” w praktyce?

A | Wymagania dla systemu lub produktu:

  • Zarządzanie ryzykiem end-to-end;
  • Zarządzanie danymi i kontrola jakości;
  • Dokumentacja techniczna i logi zdarzeń;
  • Przejrzystość i nadzór człowieka;
  • Odporność, dokładność i cyberbezpieczeństwo.

B | Wymagania organizacyjne/procesowe:

  • System zarządzania jakością (QMS) dla AI;
  • Rejestry i logi działań korygujących;
  • Współpraca z organami i jednostkami notyfikowanymi;
  • Upoważniony przedstawiciel (jeśli wymagany);
  • Ocena wpływu na prawa podstawowe (FRIA) – analiza wpływu systemu na prawa człowieka, społeczne i ekonomiczne.

10-stopniowa lista kontrolna gotowości do AI Act:

  • Zdefiniuj przypadek użycia AI i klasę ryzyka.
  • Zmapuj źródła danych i odpowiedzialności za zarządzanie nimi.
  • Utwórz model zagrożeń obejmujący urządzenie, model i dane. 
  • Zapewnij pełną możliwość śledzenia wersji modeli i zestawów treningowych.
  • Ustal plan weryfikacji i walidacji.
  • Zapewnij możliwość interwencji człowieka („human-in-the-loop”).
  • Wdroż kompleksowe logowanie i ścieżki audytu.
  • Sporządź ocenę wpływu na prawa podstawowe (FRIA).
  • Zaplanuj monitoring po wprowadzeniu na rynek i raportowanie incydentów.
  • Zweryfikuj zgodność dostawców/komponentów zewnętrznych.

Gotowi, aby zminimalizować ryzyko w swojej strategii Edge AI?

Nasz multidyscyplinarny zespół łączy inżynierów AI, architektów bezpieczeństwa i ekspertów ds. regulacji, aby przekształcić zgodność w przewagę konkurencyjną, a nie postrzegać normy prawne jako przeszkody w rozwoju.

Przygotujemy mapę Twojego przypadku użycia, zdefiniujemy architekturę bezpieczeństwa i przygotujemy dokumentację potrzebną do certyfikacji. Umów się na przegląd gotowości do AI Act z Etteplan. Skontaktuj się z nami!

"Z nami masz pewność, że Twoje produkt będą zgodne z normami prawnymi".

Jaakko Ala-Paavola

Zadaj pytanie

Mariusz Lasota

Senior Project Manager