Harmonogram obowiązywania
AI Act nie obowiązuje od razu w całości – podobnie jak RODO, które również było wdrażane etapami. Większość wymogów dla operatorów systemów wysokiego ryzyka zacznie obowiązywać od 2 sierpnia 2027 r. Co istotne, systemy wprowadzone do obrotu przed 2 sierpnia 2026 r. nie będą co do zasady podlegały przepisom AI Act, jeśli po tej dacie nie zostaną istotnie zmodyfikowane.
Szczegółowy harmonogram wejścia w życie przepisów AI Act
- 1 sierpnia 2024 r. – wejście w życie rozporządzenia (20 dni po publikacji w Dzienniku Urzędowym UE).
- 2 listopada 2024 r. – wskazanie przez państwa członkowskie organów odpowiedzialnych za ochronę praw podstawowych. Obecnie są to:
- Rzecznik Praw Dziecka,
- Rzecznik Praw Pacjenta,
- Państwowa Inspekcja Pracy.
- 2 lutego 2025 r. – rozpoczęcie stosowania przepisów:
- rozdziału I (postanowienia ogólne, definicje, wymóg kompetencji w zakresie AI),
- rozdziału II (zakazy dotyczące stosowania systemów AI – art. 5 o praktykach zakazanych).
- 2 maja 2025 r. – przygotowanie kodeksów praktyk dla dostawców modeli ogólnego przeznaczenia (ostatni draft kodeksu: https://code-of-practice.ai/).
- 2 sierpnia 2025 r. – rozpoczęcie stosowania przepisów:
- rozdziału III sekcji 4 (organy notyfikujące),
- rozdziału V (modele ogólnego przeznaczenia),
- rozdziału VII (zarządzanie na poziomie Unii, właściwe organy krajowe),
- 78 (poufność w związku z nadzorem rynku przez właściwe organy),
- rozdziału XII (kary; z wyłączeniem art. 101: kary pieniężne dla dostawców modeli AI ogólnego przeznaczenia).
- 2 sierpnia 2026 r. – pełne wdrożenie rozporządzenia (z wyjątkiem art. 6 ust. 1, dotyczącego systemów wysokiego ryzyka).
- 2 sierpnia 2027 r. – rozpoczęcie stosowania:
- 6 ust. 1 oraz powiązanych przepisów dotyczących obowiązków dla systemów wysokiego ryzyka,
- wymogów dla operatorów systemów AI wysokiego ryzyka, które zostały wprowadzone do obrotu lub oddane do użytku przed 2 sierpnia 2026 r. – tylko w przypadku wprowadzenia istotnych zmian w projektach tych systemów po tej dacie,
- wymogów dla dostawców modeli ogólnego przeznaczenia, które zostały wprowadzone do obrotu przed 2 sierpnia 2025 r.
- 2 sierpnia 2030 r. – ostateczny termin zapewnienia zgodności:
- systemów AI wysokiego ryzyka używanych przez organy publiczne,
- wielkoskalowych systemów informatycznych wymienionych w załączniku X do rozporządzenia, które zostały wprowadzone przed 2 sierpnia 2027 r.
Cel rozporządzenia
Celem rozporządzenia jest „poprawa funkcjonowania rynku wewnętrznego i promowanie upowszechniania zorientowanej na człowieka i godnej zaufania sztucznej inteligencji (AI), przy jednoczesnym zapewnieniu wysokiego poziomu ochrony zdrowia, bezpieczeństwa, praw podstawowych zapisanych w Karcie, w tym demokracji, praworządności i ochrony środowiska, przed szkodliwymi skutkami systemów AI w Unii oraz wspieraniu innowacji” (art. 1 AI Act).
Poprawa funkcjonowania rynku wewnętrznego ma dotyczyć w szczególności rozwoju systemów AI, wprowadzania ich do obrotu oraz korzystania z nich. Rozporządzenie zawiera rozwiązania zmierzające do osiągnięcia równowagi między bezpieczeństwem i wartościami Unii a wspieraniem innowacji. Na ile to się uda? Czas pokaże...
Rozporządzenie opiera się na podziale systemów według poziomów ryzyka, przy czym w przeważającej mierze dotyczy systemów wysokiego ryzyka. Systemy, które nie kwalifikują się jako stwarzające wysokie ryzyko, zabronione lub objęte obowiązkami przejrzystości ani jako modele ogólnego przeznaczenia, nie są szczegółowo regulowane przez AI Act. Nie oznacza to jednak, że nie podlegają one żadnym normom prawnym – nadal obowiązują bowiem przepisy RODO, prawa konsumentów, prawo pracy i inne regulacje sektorowe.
Zakres regulacji
AI Act dotyczy systemów sztucznej inteligencji. Dokładniej mówiąc: obejmuje wprowadzanie do obrotu, oddawanie do użytku i wykorzystywanie tych systemów. Jest to raczej regulacja z zakresu bezpieczeństwa produktów – bliżej jej do przepisów dotyczących wyrobów medycznych niż do RODO, opartego na procesach i klauzulach generalnych. AI Act wpisuje się w tzw. nowe ramy prawne, czyli sposób regulacji produktów oparty m.in. na klasyfikacji według poziomów ryzyka, ocenie zgodności, oznakowaniu CE oraz sporządzaniu deklaracji zgodności i nadzorze rynku.
Dlatego w pierwszej kolejności warto ustalić, czym jest system AI w rozumieniu rozporządzenia.
System AI oznacza (1) system maszynowy, który został zaprojektowany do działania z różnym (2) poziomem autonomii po jego wdrożeniu oraz który może wykazywać zdolność (3) adaptacji po jego wdrożeniu, a także który – na potrzeby (4) wyraźnych lub dorozumianych celów – (5) wnioskuje, jak generować na podstawie otrzymanych danych wejściowych (6) wyniki, takie jak predykcje, treści, zalecenia lub decyzje, które mogą (7) wpływać na środowisko fizyczne lub wirtualne (art. 3 pkt 1 AI Act).
Definicja systemu AI została szczegółowo wyjaśniona w wytycznych Komisji Europejskiej: https://ec.europa.eu/newsroom/dae/redirection/document/112455. Składa się ona z siedmiu elementów:
- System maszynowy
- System AI jest rozwijany i działa na maszynach, co obejmuje komponenty zarówno sprzętowe (np. procesory, pamięć, jednostki obliczeniowe), jak i programowe (np. API, oprogramowanie, modele).
- Definicja systemu AI obejmuje różne technologie, w tym tradycyjne komputery, systemy oparte na obliczeniach kwantowych oraz systemy biologiczne wykorzystywane do obliczeń.

- Działanie z różnym stopniem autonomii
- Automatyzacja nie jest tożsama z autonomią – system może być zautomatyzowany, ale nie musi działać autonomicznie.
- AI Act definiuje autonomię jako zdolność systemu do działania w pewnym stopniu niezależnie od interwencji człowieka.
- Istnieje spektrum interakcji człowiek – maszyna: od systemów w pełni kontrolowanych manualnie po systemy działające całkowicie autonomicznie.
- Systemy, które wymagają jedynie manualnego wprowadzania danych, ale same generują wyniki bez precyzyjnego sterowania przez człowieka, są uznawane za systemy AI.
- Zdolność do adaptacji po wdrożeniu
- Adaptacja odnosi się do zdolności systemu AI do modyfikowania swojego działania w odpowiedzi na nowe dane lub zmieniające się warunki.
- Adaptacja może odbywać się przez mechanizmy uczenia się, ale nie jest to konieczne – systemy AI mogą działać również na bazie predefiniowanych reguł. Oznacza to, że systemy samouczące się zazwyczaj są systemami AI, a systemy, które nie mają tej zdolności, mogą być systemami AI, lecz tylko pod warunkiem spełniania pozostałych kryteriów.
- Zdolność adaptacji nie jest twardym wymogiem definicji systemu AI.
- Działanie na potrzeby wyraźnych lub domniemanych celów
- System AI może działać na podstawie celów, które zostały określone przez twórców, lub celów, które wyłaniają się pośrednio w wyniku działania systemu.
- W związku z tym działanie na potrzeby różnych celów – wyraźnych lub domniemanych – również nie stanowi twardego wymogu definicji systemu AI .
- Wnioskowanie na podstawie otrzymanych danych
- System AI wykorzystuje dane wejściowe do wyciągania wniosków, na podstawie których generuje różne wyniki (zob. element 6). Wnioskowanie na podstawie otrzymanych danych jest kluczowym elementem definicji systemu AI.
- Techniki wnioskowania mogą obejmować:
- uczenie maszynowe (np. uczenie nadzorowane, uczenie głębokie),
- systemy oparte na logice lub wiedzy (np. symboliczna AI),
- podejścia mieszane (np. neurosymboliczna AI).
- W praktyce organizacje będą miały do czynienia przede wszystkim z uczeniem maszynowym.
- Generowanie wyników
System AI może tworzyć różne rodzaje wyników, np.:
- prognozy (np. przewidywanie pogody, prognoza sprzedaży),
- treści (np. generowanie tekstu, obrazu, dźwięku),
- rekomendacje (np. systemy rekomendacji produktów),
- decyzje (np. analiza wniosków kredytowych, automatyczna decyzja o podwyżce lub zwolnieniu).
- Wpływ na środowisko fizyczne lub wirtualne
- System AI jest definiowany nie tylko na podstawie swojej budowy, lecz także ze względu na wpływ, jaki wywiera na środowisko fizyczne lub wirtualne.
- Wpływ na środowisko fizyczne wywierają np. roboty przemysłowe i systemy autonomicznej jazdy, a na środowisko wirtualne – chatboty, filtry treści w mediach społecznościowych czy algorytmy rekomendacyjne na platformach VOD.
Podmioty objęte regulacją
Przepisy AI Act mają zastosowanie m.in. do podmiotów wykorzystujących systemy AI oraz do dostawców takich systemów. W przeciwieństwie do RODO, który koncentruje się na administratorach danych, AI Act przerzuca większość obowiązków na dostawców systemów AI, a także na dostawców systemów ogólnego zastosowania (np. OpenAI, Google w zakresie Gemini czy Microsoft w zakresie Azure OpenAI).
Rozporządzenie stosuje się do:
- dostawców wprowadzających do obrotu lub oddających do użytku systemy AI lub wprowadzających do obrotu modele AI ogólnego przeznaczenia w Unii, niezależnie od tego, czy dostawcy ci mają siedzibę lub znajdują się w Unii czy w państwie trzecim,
- podmiotów stosujących systemy AI, mających siedzibę lub znajdujących się w Unii,
- dostawców systemów AI i podmiotów stosujących systemy AI, którzy mają siedzibę lub znajdują się w państwie trzecim, w przypadku gdy wyniki wytworzone przez system AI są wykorzystywane w Unii,
- importerów i dystrybutorów systemów AI,
- producentów produktu, którzy pod własną nazwą lub znakiem towarowym oraz wraz ze swoim produktem wprowadzają do obrotu lub oddają do użytku system AI,
- upoważnionych przedstawicieli dostawców niemających siedziby w Unii,
- osób, na które system AI ma wpływ i które znajdują się w Unii.
W AI Act dostawcę, producenta produktu, podmiot stosujący, upoważnionego przedstawiciela, importera lub dystrybutora nazywa się łącznie „operatorami”. Co ważne, operator może przyjmować różne role, np. importer może być zarówno dystrybutorem, jak i podmiotem stosującym. Również dostawca może być podmiotem stosującym, jeśli korzysta z własnego systemu. Podobnie jest na gruncie RODO – operator może być (współ)administratorem danych osobowych lub procesorem. Organizacje będą najczęściej podmiotami stosującymi – zwłaszcza jeśli korzystają z gotowych produktów.
Przykład: Organizacja wdraża system do oceny kandydatów do pracy. Jest to gotowy produkt, który zakupiono bezpośrednio od dostawcy tego rozwiązania. Organizacja jest podmiotem stosującym, a firma, od której kupiono system, jest dostawcą. W tym wypadku podmiot stosujący będzie administratorem danych osobowych, a dostawca może być podmiotem przetwarzającym.
Podejście oparte na ryzyku – klasyfikacja systemów
Ocena, w jakiej roli występuje dany podmiot zgodnie z AI Act, ma bardzo duże znaczenie przy określaniu jego obowiązków. Zakres tych obowiązków zależy nie tylko od statusu podmiotu, lecz także od klasyfikacji samego systemu. AI Act wykorzystuje podejście oparte na ryzyku, dlatego obowiązki operatorów różnią się w zależności od tego, do której kategorii ryzyka zostanie przypisany system AI.
Zakazane praktyki
AI Act nie zakazuje konkretnych systemów, lecz skupia się na praktykach związanych z wprowadzaniem ich do obrotu, oddawaniem do użytku lub wykorzystywaniem. System AI jest uznawany za zakazany, jeśli spełnia określone przesłanki. Komisja Europejska wydała szczegółowe wytyczne, które wyjaśniają te przesłanki:
https://ec.europa.eu/newsroom/dae/redirection/document/112367.
Zakazane praktyki to m.in.:
- manipulacja i techniki podprogowe,
- wykorzystywanie słabości osób lub grup,
- scoring społeczny,
- ocena ryzyka przestępczości na podstawie profilowania,
- tworzenie baz danych do rozpoznawania twarzy przez scraping,
- rozpoznawanie emocji w pracy i edukacji,
- biometryczna kategoryzacja osób w celu wywnioskowania wrażliwych informacji (np. rasy, poglądów politycznych, orientacji seksualnej),
- zdalna identyfikacja biometryczna w czasie rzeczywistym w przestrzeni publicznej.
Systemy AI wysokiego ryzyka
System wysokiego ryzyka to taki system, który nie jest zabroniony, lecz może stwarzać istotne ryzyko szkody dla zdrowia, bezpieczeństwa lub praw podstawowych osób fizycznych. AI Act nie wymaga od dostawcy systemu przeprowadzenia pełnej i samodzielnej analizy ryzyka w celu zaklasyfikowania tego systemu do kategorii wysokiego ryzyka. Ocena, czy dany system należy do tej kategorii, polega na sprawdzeniu niżej opisanych kryteriów:
- System jest produktem lub elementem bezpieczeństwa produktu

Migracje, chmury, systemy.
RODO w IT.
Przykład: wyroby medyczne klasy IIa i wyższej.
- System jest samodzielnym systemem wykorzystywanym w krytycznych obszarach
System AI jest systemem wykorzystywanym w którymkolwiek z poniższych obszarów (załącznik III):
- biometria (identyfikacja biometryczna, rozpoznawanie emocji, kategoryzacja biometryczna),
- infrastruktura krytyczna (np. zarządzanie sieciami energetycznymi),
- edukacja i szkolenia zawodowe (np. systemy oceniające wyniki uczniów),
- zatrudnienie i HR (np. automatyczna rekrutacja, ocena wydajności pracowników),
- dostęp do podstawowych usług (np. ocena zdolności kredytowej, przyznawanie świadczeń),
- egzekwowanie prawa (np. analiza ryzyka przestępczości),
- zarządzanie migracją i kontrola graniczna (np. wykrywanie fałszywych dokumentów),
- wymiar sprawiedliwości i procesy demokratyczne (np. AI wspierające sędziów).
Wyjątek:System AI nie należy do kategorii wysokiego ryzyka, mimo że jest samodzielnym systemem wykorzystywanym w krytycznym obszarze, jeśli:
- wykonuje wąsko określone zadania proceduralne,
- poprawia wynik wcześniejszej czynności ludzkiej,
- wykrywa wzorce decyzji, ale nie zastępuje oceny ludzkiej,
- wykonuje zadania przygotowawcze dla oceny ludzkiej.
W takim wypadku należy udokumentować ocenę przed oddaniem systemu do użytku lub wprowadzeniem go do obrotu. Taki system rejestruje się w bazie danych UE dla systemów AI wysokiego ryzyka wymienionych w załączniku III do rozporządzenia.
- System dokonuje profilowania osób fizycznych
Jeśli system AI, który jest wykorzystywany w jednym z krytycznych obszarów wymienionych w załączniku III do rozporządzenia, dokonuje profilowania osób fizycznych, to niezależnie od innych czynników zawsze jest uznawany za system wysokiego ryzyka.
Modele ogólnego przeznaczenia – uwagi ogólne
AI Act nie dotyczy tylko systemów AI – może również obejmować modele. Pojęcie „modelu AI” nie ma definicji legalnej. W praktyce model można porównać do silnika w samochodzie: różni się od systemu tak, jak silnik różni się od samochodu. System to model wraz z oprogramowaniem, interfejsem i hardware’em.
Co do zasady modele AI nie podlegają regulacjom w takim zakresie jak systemy AI. Dlatego same w sobie nie mogą być kwalifikowane jako powodujące wysokie ryzyko. Dopiero gdy dany model staje się częścią systemu AI wysokiego ryzyka, podlega pośrednio wymogom rozporządzenia.
AI Act definiuje natomiast „model AI ogólnego przeznaczenia”. Jest to model wytrenowany do realizacji wielu różnych celów i zdolny do wykonywania różnych zadań. Modele tego typu mogą być wykorzystywane w różnych systemach i aplikacjach niższego szczebla.
Przykład: W interfejsie ChatGPT jest dostępny selektor modeli. Można tam wybrać np. „GPT-4o” – to jest właśnie model. Aplikacja ChatGPT to z kolei system, który wykorzystuje ten model.
Modele ogólnego przeznaczenia z ryzykiem systemowym
Modele – podobnie jak systemy – również należy ocenić pod kątem ryzyka. Aby ustalić, czy model AI ogólnego przeznaczenia wiąże się z ryzykiem systemowym, należy sprawdzić, czy spełnia jeden z poniższych warunków:
- ma zdolności dużego oddziaływania, ocenione na podstawie odpowiednich narzędzi i metodologii technicznych, w tym wskaźników i poziomów odniesienia, lub
- na mocy decyzji Komisji Europejskiej – z urzędu lub w następstwie ostrzeżenia kwalifikowanego wydanego przez panel naukowy – ma zdolności lub oddziaływanie równoważne z tymi, które określono w pkt 1, przy uwzględnieniu kryteriów określonych w załączniku XIII.
Zdolność dużego oddziaływania dotyczy zdolności równych lub przewyższających zdolności modeli granicznych, czyli najbardziej zaawansowanych modeli na rynku.
W praktyce najistotniejsze jest domniemanie dużego oddziaływania, które jest oparte na metryce FLOPs (floating-point operations). Zgodnie z art. 51 ust. 2 AI Act, jeżeli łączna liczba operacji zmiennoprzecinkowych wykorzystywanych do trenowania modelu przekracza 10²⁵ (czyli 10 i 25 zer), domniemywa się, że model ma zdolności dużego oddziaływania, a więc potencjalnie jest modelem z ryzykiem systemowym.
Operacje zmiennoprzecinkowe to przybliżona miara możliwości i rozmiarów modelu. W uproszczeniu są to działania (mnożenie, dzielenie, dodawanie, odejmowanie) wykonywane na dwóch liczbach przez komputer. Odzwierciedla to moc obliczeniową potrzebną do wytrenowania lub dotrenowania modelu.
Przykład: Aktualne modele graniczne (np. GPT-4o, Llama 4, Grok 3) spełniają próg wskazany w art. 51 ust. 2 AI Act.
Komisja Europejska może aktualizować próg FLOPs tak, aby dostosować go do rozwoju techniki.
Ryzyka związane z przejrzystością
Niektóre systemy opierają się na interakcji z ludźmi lub na tworzeniu treści. W takich wypadkach może powstać ryzyko wprowadzenia użytkownika w błąd, np. przez podawanie się za inną osobę. Takie ryzyko może wystąpić niezależnie od tego, czy system jest zaklasyfikowany jako powodujący wysokie ryzyko. Dlatego AI Act przewiduje szczególne obowiązki związane z przejrzystością. Warto przy tym pamiętać, że nie ma to wpływu na obowiązki przejrzystości wynikające z innych przepisów – w tym RODO.
Przejrzystości w rozumieniu AI Act nie należy mylić z wyjaśnialnością, która jest wymogiem dla systemów wysokiego ryzyka. W niektórych wypadkach system może podlegać dodatkowym wymogom związanym zarówno z przejrzystością, jak i z wyjaśnialnością.
AI Act przewiduje, że dodatkowym wymogom przejrzystości podlegają:
- dostawcy systemów AI przeznaczonych do bezpośredniej interakcji z osobami fizycznymi,
- dostawcy systemów AI generujących syntetyczny dźwięk, obraz, wideo lub tekst,
- podmioty stosujące systemy rozpoznawania emocji i kategoryzacji biometrycznej,
- podmioty stosujące systemy AI generujące deepfaki,
- podmioty stosujące systemy AI generujące teksty publikowane w celu informowania opinii publicznej o sprawach będących przedmiotem zainteresowania publicznego lub manipulujące takimi tekstami.
Systemy niskiego ryzyka
AI Act nie definiuje systemów niskiego ryzyka. Systemy, które nie mieszczą się w żadnej z wcześniej omówionych kategorii, nie będą podlegały AI Act – poza wymogiem zapewnienia kompetencji w zakresie AI (AI Literacy) czy też etycznych zasad godnej zaufania sztucznej inteligencji, dobrowolnych zobowiązań i kodeksów postępowania.
Obowiązki wynikające z poziomów ryzyka
Obowiązki dostawców systemu wysokiego ryzyka
Większość obowiązków wynikających z AI Act spoczywa na dostawcach systemów wysokiego ryzyka. Muszą oni zadbać o to, by systemy te były odpowiedniej jakości, bezpieczne i uczciwe. Zarzuty o nadmierną biurokratyzację AI Act warto zestawić z praktyką – część wymogów już przed wejściem w życie rozporządzenia była oczywista dla dostawców, którzy dążyli do stworzenia rzetelnego modelu i bezpiecznego systemu. Przykładowo, wymóg zarządzania danymi jest standardem w każdej organizacji, która oczekuje, że system AI będzie generował realną wartość na podstawie jakościowych danych w odpowiedniej ilości.
Obowiązki wynikające z AI Act w odniesieniu do systemów wysokiego ryzyka można podzielić na trzy grupy:
- Wymogi dotyczące projektowania i opracowania systemów AI wysokiego ryzyka (art. 9–15 AI Act):
- system zarządzania ryzykiem (RMS),
- zarządzanie danymi (data management, data governance),
- dokumentacja techniczna (art. 11),
- rejestry zdarzeń (art. 12),
- przejrzystość i informacje dla podmiotów stosujących (art. 13),
- nadzór ludzki (art. 14),
- dokładność, odporność i cyberbezpieczeństwo (art. 15).
-
Diagnoza zgodności RODO.
Zrób to samWykorzystaj elastyczne narzędzie do inwentaryzacji, audytu, przeprowadzenia DPIA oraz analizy ryzyka.POZNAJ DR RODO- oznaczanie systemu danymi dostawcy,
- system zarządzania jakością – QMS (art. 17),
- prowadzenie dokumentacji (obejmującej dokumenty techniczne, dokumenty QMS, dokumenty związane z oceną zgodności, w tym dotyczące zatwierdzania zmian przez jednostkę notyfikowaną, oraz deklarację zgodności),
- przechowywanie automatycznych rejestrów zdarzeń (logów),
- przeprowadzanie oceny zgodności,
- sporządzenie deklaracji zgodności UE,
- oznakowanie CE systemu AI,
- rejestracja systemu w bazie danych UE,
- podejmowanie działań naprawczych w razie stwierdzenia niezgodności z AI Act, informowanie pozostałych operatorów na kolejnych szczeblach łańcucha wartości,
- współpraca z organem krajowym,
- zapewnienie zgodności systemu z wymogami dostępności produktów i usług oraz dostępności stron internetowych i aplikacji mobilnych wykorzystywanych przez sektor publiczny (dyrektywy (UE) 2016/2102 i (UE) 2019/882).
- Inne wymogi:
- ogólny wymóg zapewnienia kompetencji w zakresie AI, dodatkowo – szczególne wymogi w zakresie nadzoru ludzkiego (art. 14 AI Act),
- zgłaszanie, wyjaśnianie i ocena poważnych incydentów oraz wdrażanie środków naprawczych.
Obowiązki podmiotów stosujących systemy AI wysokiego ryzyka
AI Act nakłada szczególne obowiązki nie tylko na dostawców, lecz także na podmioty stosujące systemy AI wysokiego ryzyka. Wymogi dotyczące tych podmiotów to:
- zapewnienie zgodności z instrukcją obsługi przekazaną przez dostawcę systemu,
- nadzór nad działaniem systemu sprawowany przez osoby posiadające odpowiednie kompetencje, w tym w zakresie AI,
- zapewnienie adekwatności i reprezentatywności danych wejściowych,
- monitorowanie działania systemu oraz informowanie pozostałych operatorów o stwierdzonych incydentach,
- przechowywanie rejestrów zdarzeń – jeśli podmiot stosujący ma nad nimi kontrolę,
- informowanie pracowników i ich przedstawicieli o wykorzystywaniu systemu w miejscu pracy; przed wdrożeniem systemu AI wysokiego ryzyka należy przeprowadzić konsultacje z pracownikami,
- rejestracja systemu AI wysokiego ryzyka w bazie danych UE – w przypadku sektora publicznego,
- wykorzystywanie informacji przekazanych przez dostawcę systemu do przeprowadzania DPIA,
- spełnianie dodatkowych obowiązków w przypadku korzystania ze zdalnej identyfikacji biometrycznej post factum,
- informowanie osób fizycznych o wykorzystywaniu systemu AI wysokiego ryzyka – w szczególności gdy system podejmuje decyzje dotyczące tych osób; wymóg ten jest niezależny od przejrzystości wymaganej przez RODO i od szczególnych obowiązków w zakresie przejrzystości przewidzianych w AI Act,
- w razie złożenia żądania – przekazanie osobie fizycznej jasnego i merytorycznego wyjaśnienia roli systemu AI wysokiego ryzyka w procedurze podejmowania decyzji oraz głównych elementów podjętej decyzji; obowiązek ten stanowi uzupełnienie art. 15 ust. 1 lit. h RODO,
- współpraca z organami nadzoru.
Ocena skutków systemów AI wysokiego ryzyka (FRIA)
Stosowanie niektórych systemów AI może mieć negatywne skutki dla praw osób fizycznych lub określonych grup. Dlatego zgodnie z AI Act niektóre systemy powinny być objęte obowiązkiem przeprowadzenia oceny skutków systemów AI wysokiego ryzyka (FRIA). Ma ona na celu dobranie i opisanie środków zmniejszających ryzyko związane ze stosowaniem systemu AI.
Obowiązek przeprowadzenia FRIA spoczywa na podmiocie stosującym system AI wysokiego ryzyka. Podobnie jak w przypadku DPIA wymóg ten dotyczy określonych sytuacji. FRIA należy przeprowadzić w szczególności, gdy:
- stosowany jest system wysokiego ryzyka (z wyjątkiem obszaru infrastruktury krytycznej),
- podmiotem stosującym jest organizacja z sektora publicznego,
- podmiotem stosującym jest organizacja z sektora prywatnego, która świadczy usługi publiczne (np. w obszarze edukacji, zdrowia, pomocy społecznej, mieszkalnictwa, wymiaru sprawiedliwości),
- system AI wysokiego ryzyka należy do kategorii wskazanej w ust. 5 lit. b i c załącznika III do rozporządzenia, tj. jest przeznaczony do oceny zdolności kredytowej, oceny ryzyka oraz ustalania cen w przypadku ubezpieczenia na życie i ubezpieczenia zdrowotnego.
FRIA składa się co najmniej z następujących elementów:
- opisu procesów podmiotu stosującego, w których system AI wysokiego ryzyka będzie wykorzystywany zgodnie z jego przeznaczeniem,
- opisu okresu, w którym każdy system AI wysokiego ryzyka ma być wykorzystywany, oraz opisu częstotliwości tego wykorzystywania;
- opisu kategorii osób fizycznych i grup, na które może mieć wpływ wykorzystywanie systemu AI wysokiego ryzyka,
- określenia szczególnego ryzyka szkody, które może mieć wpływ na wskazane wyżej kategorie osób fizycznych lub grup, z uwzględnieniem informacji przekazanych przez dostawcę (np. dokumentacji, instrukcji),
- opisu wdrożenia środków nadzoru ze strony człowieka – zgodnie z instrukcją obsługi;
- określenia środków, jakie należy podjąć w przypadku urzeczywistnienia się ryzyka, w tym dokonania ustaleń dotyczących zarządzania wewnętrznego i mechanizmów rozpatrywania skarg.
FRIA dotyczy systemów jeszcze niewdrożonych. Należy ją przeprowadzić przed pierwszym wykorzystaniem systemu. Po pierwszym uruchomieniu systemu FRIA może być wykorzystywana również do podobnych systemów. Można również polegać na FRIA przeprowadzonej przez dostawcę, a także uwzględnić udział osób, na których system może wpływać, lub niezależnych ekspertów czy NGOsów.
W przypadku wprowadzenia zmian do systemu FRIA powinna zostać zaktualizowana. Podobnie jak DPIA – FRIA jest procesem ciągłym i iteracyjnym, w którym należy monitorować zmiany systemu i reagować na nie.
FRIA może stanowić uzupełnienie DPIA. Przykładowo, jeśli w systematycznym opisie operacji i celów przetwarzania lub w analizie ryzyka (art. 35 ust. 7 RODO) znajdują się już informacje, których wymaga FRIA, to nie trzeba ich powielać – wystarczy uzupełnić DPIA o brakujące elementy, aby spełnić wymagania obu ocen.
Wynik FRIA jest raportowany do właściwego organu nadzoru rynku. Do powiadomienia podmiot stosujący załącza wypełniony kwestionariusz przygotowany przez Europejski Urząd ds. Sztucznej Inteligencji.
Obowiązki dystrybutorów i importerów systemów AI wysokiego ryzyka
Importerzy i dystrybutorzy systemów AI wysokiego ryzyka mają obowiązki związane ze sprawdzeniem, czy wprowadzany do obrotu lub udostępniany na rynku system jest zgodny z AI Act.

Praca dobrymi narzędziami RODO to nie praca!
- sprawdzenia, czy system przed wprowadzeniem do obrotu spełnia wymagania w zakresie: oceny zgodności, dokumentacji technicznej, oznakowania CE i deklaracji zgodności oraz ustanowienia upoważnionego przedstawiciela,
- raportowania wszystkich systemów AI stwarzających ryzyko,
- oznaczenia systemu swoimi danymi,
- zapewnienia bezpiecznego przechowywania lub transportu systemu,
- przechowywania dokumentów związanych z oceną zgodności,
- współpracy z właściwym organem krajowym.
Obowiązki dystrybutorów są podobne. Główne różnice dotyczą zakresu weryfikacji systemu oraz oznaczania go swoimi danymi. Dystrybutorzy są zobowiązani do:
- sprawdzenia, czy system przed udostępnieniem na rynku spełnia wymagania dotyczące: oznakowania CE i deklaracji zgodności, dołączenia instrukcji obsługi, oznaczenia danymi dostawcy lub importera oraz wdrożenia systemu zarządzania jakością,
- monitorowania działania systemu i podejmowania działań naprawczych, a także raportowania systemów AI stwarzających ryzyko,
- zapewnienia bezpiecznego przechowywania lub transportu systemu,
- współpracy z właściwym organem krajowym.
Dystrybutor może być jednocześnie importerem. W takim wypadku będzie podlegał wymogom właściwym dla obu tych ról.
Wejście w obowiązki dostawcy
W unijnym prawodawstwie harmonizacyjnym, uchwalonym zgodnie z nowymi ramami prawnymi, poważna zmiana produktu może skutkować koniecznością ponownego przejścia oceny zgodności, ponieważ taki produkt może zostać uznany za nowy. Podobnie jest w przypadku, gdy istotną zmianę wprowadza użytkownik, który może stać się producentem. Zasada ta odnosi się również do AI Act.
Każdy operator niebędący dostawcą (podmiot stosujący, dystrybutor, importer lub inna strona trzecia) w łańcuchu wartości może pod pewnymi warunkami wejść w obowiązki dostawcy. Oznacza to, że może on przyjąć na siebie większość ciężaru regulacyjnego wynikającego z AI Act.
Operator może stać się dostawcą w rozumieniu AI Act, jeśli spełni jeden z poniższych warunków:
- Operator oznacza system wprowadzony do obrotu lub oddany do użytku swoim znakiem towarowym lub nazwą.
Przykład: Organizacja nabywa licencję na system AI, a następnie sprzedaje ten system pod własną marką.
- Operator istotnie modyfikuje system AI wysokiego ryzyka, który został już wprowadzony do obrotu lub oddany do użytku, a system ten nadal należy do kategorii wysokiego ryzyka.
Przykład: Organizacja przekształca system do badania zmian skórnych na system do badania włosów, co nie mieści się w zakresie wcześniejszej oceny zgodności systemu.
- Operator istotnie zmienia przeznaczenie systemu AI, w tym systemu ogólnego przeznaczenia, w taki sposób, że staje się on systemem AI wysokiego ryzyka.
Przykład: Organizacja wykorzystuje ChatGPT do oceny kandydatów do pracy, co jest niezgodne z zasadami korzystania z tego systemu (https://openai.com/policies/usage-policies/).
Istotna zmiana, o której mowa w pkt 2 i 3, to modyfikacja w systemie AI, która:
- została przeprowadzona po wprowadzeniu systemu do obrotu lub oddaniu go do użytku,
- nie została przewidziana ani zaplanowana przy początkowej ocenie zgodności przeprowadzonej przez dostawcę,
- ma wpływ na zgodność systemu AI z wymogami systemów wysokiego ryzyka lub
- powoduje zmianę przeznaczenia, w odniesieniu do którego oceniono system AI.
Istotną zmianę musi wprowadzić podmiot inny niż dostawca, w tym dostawca niższego szczebla. Oznacza to, że jeśli dostawca wdraża system wysokiego ryzyka w organizacji, dostosowując pewne jego elementy do potrzeb klienta, to organizacja nie będzie przejmowała obowiązków dostawcy. Dopiero gdy organizacja wprowadziłaby istotną modyfikację systemu, mogłaby wejść w rolę dostawcy i przejąć jego obowiązki.
Podmiot stosujący, który przejmuje liczne obowiązki dostawcy, nie jest pozostawiony samemu sobie. Po przejęciu obowiązków pierwotny dostawca ściśle z nim współpracuje, a także udostępnia mu niezbędne informacje oraz udziela racjonalnie oczekiwanego dostępu technicznego i innego wsparcia. Należy jednak uważnie sprawdzić postanowienia umów, ponieważ dostawca może sobie zastrzec zakaz modyfikacji systemu na system wysokiego ryzyka. W takim wypadku obowiązek przekazania dokumentacji nie ma zastosowania.
Kary pieniężne za nieprzestrzeganie obowiązków
Na gruncie AI Act przyjęto takie same kryteria nakładania kar jak w RODO – według progów procentowych lub kwotowych. Kary pieniężne z AI Act kształtują się następująco:
- nieprzestrzeganie zakazu praktyk – do 35 000 000 euro lub 7 % całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, w zależności od tego, która z tych kwot jest wyższa,
- nieprzestrzeganie pozostałych obowiązków – do 15 000 000 euro lub do 3 % całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, w zależności od tego, która z tych kwot jest wyższa,
- dostarczanie nieprawidłowych, niekompletnych lub wprowadzających w błąd informacji jednostkom notyfikowanym lub właściwym organom krajowym w odpowiedzi na ich wniosek – do 7 500 000 euro albo do 1 % całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, w zależności od tego, która z tych kwot jest wyższa.
W przypadku małych i średnich przedsiębiorstw i start-upów kara nie może przekroczyć progu procentowego lub kwotowego, przy czym zastosowanie ma kwota niższa.
Kary na organy Unii Europejskiej nakłada Europejski Inspektor Ochrony Danych. Grożą one za:
- nieprzestrzeganie zakazu praktyk w zakresie AI – do 1 500 000 euro,
- nieprzestrzeganie pozostałych obowiązków – do 750 000 euro.
Na dostawców modeli AI ogólnego przeznaczenia Komisja Europejska może nałożyć kary do 3 % ich całkowitego rocznego światowego obrotu w poprzednim roku obrotowym lub 15 000 000 euro, w zależności od tego, która z tych kwot jest wyższa.
Podsumowanie
Organizacja, która chce być gotowa na spełnienie wymagań AI Act, nie może czekać do momentu, aż wszystkie obowiązki wejdą w życie. Już teraz powinna:
- zidentyfikować, jakie systemy AI są wykorzystywane,
- ocenić zidentyfikowane systemy pod kątem kategorii ryzyka,
- dokonać przeglądu umów z dostawcami,
- określić swoją rolę w łańcuchu wartości,
- zidentyfikować obowiązki, które wynikają z powyższych ocen, i sprawdzić, czy będą one dotyczyły danego systemu (np. systemu oddanego do użytku przed 2 sierpnia 2026 r.),
- w zależności od oceny – wdrożyć odpowiednie środki, które pozwolą osiągnąć zgodność z AI Act.
Przeprowadzenie powyższych analiz, w szczególności wskazanych w pkt 1–4, jest konieczne do identyfikacji obowiązków organizacji także na gruncie innych przepisów, zwłaszcza RODO. Analizy te można udokumentować, np. stworzyć rejestr systemów AI lub uwzględnić zweryfikowany system w rejestrze czynności przetwarzania. W dokumentacji można również wskazać swoją ocenę ryzyka i określić rolę w kontekście regulacji AI Act.
Sprawdź co pamiętasz - za poprawną odpowiedź nagroda!
Które z poniższych zastosowań systemów AI podlega szczególnym obowiązkom przejrzystości zgodnie z AI Act?