Co zmieni AI Act w sprawie sztucznej inteligencji?

Parlament Europejski zatwierdził pierwsze na świecie kompleksowe uregulowanie prawne dotyczące sztucznej inteligencji. Jego celem jest przeciwdziałanie zagrożeniom dla ludzi, jakie może stwarzać AI. Wprowadzono nowe obowiązki i wysokie kary za ich nieprzestrzeganie. W grudniu 2023 r. Komisja UE przygotowała dokument, który wyjaśnia cel i podstawowe zasady nowej regulacji.

Co chce osiągnąć Unia Europejska?

Rewolucja w dziedzinie sztucznej inteligencji (AI) dzieje się na naszych oczach. Instytucje unijne doceniają potencjalne korzyści, które płyną z AI, ale dostrzegły też zagrożenia. Sztuczna inteligencja wspiera pracę człowieka. Analizuje ogromne ilości danych, selekcjonuje informacje, wyciąga wnioski. Rozpoznaje i tworzy obrazy. Zwiększa się ingerencja AI w życie człowieka, co może mieć wpływ na nasze prywatne interesy, takie jak udział w rekrutacji, przebieg edukacji czy uzyskanie dostępu do opieki zdrowotnej.

Inteligentny system kamer może na przykład wytypować osoby, które stwarzają zagrożenie na lotnisku. Zwiększa to bezpieczeństwo wszystkich pasażerów. System może być w 99% skuteczny, ale czy powinniśmy godzić się na to, że 1% spośród dziesiątek tysięcy podróżnych będzie miał poważne nieprzyjemności?

AI nie powstała „znikąd”. Została wytrenowana na ogromnej ilości danych. Instytucje unijne zwróciły uwagę brak przejrzystości przy tworzeniu systemów AI. Oznacza to na przykład brak kontroli nad tym, jakie dane wykorzystano do treningu systemu. Co się stanie, gdy AI zostanie wytrenowana na treściach, które zawierały opinie dyskryminujące niektóre grupy społeczne z uwagi na ich płeć, wiek, rasę lub orientację seksualną? Istnieje ryzyko, że źle wytrenowany model AI będzie uwzględniać wyuczone uprzedzenia, niesprawiedliwie traktując, a nawet krzywdząc wiele osób.

Postęp i wolny rynek często idą w parze, ale niezbyt im po drodze z nowymi regulacjami, obowiązkami i karami. Mimo wszystko Unia wyraża przekonanie, że nowe Rozporządzenie nie zdusi rozwoju AI w Europie. Wręcz przeciwnie, nowe ramy prawne mają wspierać ten rozwój, przez zwiększenie zaufania obywateli do bezpiecznej i uregulowanej AI. Zyskać mają też przedsiębiorcy. Wprowadzenie nowej regulacji w formie Rozporządzenia, ma zapewnić wspólne i jednolite obowiązywanie zasad dotyczących AI we wszystkich państwach członkowskich UE. Ma to ułatwić przedsiębiorcom jednoczesne wejście na wiele rynków. Niepewność prawna ma być usunięta przez klarowne zasady.

Jakie AI będzie zakazane?

Niektóre sposoby wykorzystania AI są całkowicie zakazane. Dla przykładu, nie ma zgody Unii na pozyskiwanie wizerunku osób z kamer przemysłowych, w celu rozbudowy baz danych. Organy ścigania będą mogły wykorzystać systemy AI zintegrowane z kamerami, aby w czasie rzeczywistym zidentyfikować osoby niebezpieczne w miejscach publicznych, ale tylko w wąskim zakresie. Dotyczy to np. zwalczania najpoważniejszych przestępstw i zagrożeń dla życia publicznego. Każdy taki system będzie musiał być zatwierdzony przez uprawniony organ, np. sądowy.

Nielegalne będą systemy, które rozpoznają emocje człowieka w miejscu pracy lub w instytucjach edukacji. Dopuszczalne wyjątki muszą być podyktowane względami bezpieczeństwa lub medycznymi. Możliwe będzie np. monitorowanie poziomu zmęczenia pilota w miejscu pracy.

Systemy AI nie mogą umyślnie wprowadzać w błąd, ani wykorzystywać osób szczególnie narażonych. Niedopuszczalne będzie też wykorzystanie AI do dokonywania oceny społecznej jednostki (social scoring), jeżeli taka ocena będzie prowadzić do krzywdzącego lub niekorzystnego traktowania niektórych osób fizycznych lub grup osób.

Kogo dotyczą nowe przepisy?

Rozporządzenie będzie miało zastosowanie zarówno do podmiotów publicznych, jak i prywatnych w UE i poza nią, o ile system AI jest wdrażany na rynku unijnym lub jego wykorzystanie ma wpływ na osoby znajdujące się w UE.

Obowiązki przewidziane w Rozporządzeniu dotyczą zarówno dostawców, jak i importerów i dystrybutorów rozwiązań AI. Część obowiązków spoczywa także na podmiotach korzystających z systemów AI wysokiego ryzyka np. na banku decydującym się na zakup takiego dedykowanego narzędzia.

RODO. Wspracie się przydaje!

Czym są AI wysokiego ryzyka?

Systemy AI, które mogą wywierać niekorzystny wpływ na bezpieczeństwo i prawa podstawowe obywateli, uznawane są za systemy wysokiego ryzyka. W załączniku do Rozporządzenia znajduje się wykaz takich systemów. Za system wysokiego ryzyka uznaje się np. system wykorzystywany w rekrutacji, który analizuje CV zgłoszone przez kandydatów do pracy. Wysokie ryzyko może nieść stosowanie AI w edukacji, jeżeli AI będzie oceniać efekty nauczania. Wysoce ryzykowne może być AI wykorzystywane w dostępie do usług opieki zdrowotnej, bądź dokonujące oceny zdolności kredytowej. Kolejnym przykładem takiego systemu jest AI, który ocenia i klasyfikuje odebrane połączenia alarmowe.

Jakie są nowe obowiązki związane z systemami AI wysokiego ryzyka?

Przed oddaniem do użytku systemu AI wysokiego ryzyka, dostawcy powinni wykonać ocenę zgodności w świetle przyjętych wymogów dotyczących AI. Wymogi te uwzględniają m.in. jakość danych, dokumentację, identyfikowalność, przejrzystość, nadzór ludzki, dokładność, cyberbezpieczeństwo i niezawodność. Dostawcy systemów AI wysokiego ryzyka będą musieli wdrożyć systemy zarządzania jakością i ryzykiem, aby minimalizować zagrożenia dla użytkowników.

Podmioty stosujące takie systemy powinny podjąć odpowiednie środki techniczne i organizacyjne w celu zapewnienia, że systemy będą wykorzystywane zgodnie z instrukcją obsługi, a osoby sprawujące nad nimi nadzór będą posiadały odpowiednie kompetencje. Pojawiły się dodatkowe obowiązki informacyjne o stosowaniu AI.

Systemy AI wysokiego ryzyka, które zostaną wdrożone przez organy publiczne, będą rejestrowane w publicznej bazie danych UE. Wyjątek stanowią systemy wykorzystywane do egzekwowania prawa i na potrzeby związane z imigracją, które także będą rejestrowane w bazie, ale tylko w jej niepublicznej części.

Szczególne podejście do AI ogólnego przeznaczenia

Rozporządzenie nakłada dodatkowe wymogi na dostawców AI ogólnego przeznaczenia. Za takie uznaje się AI, które były trenowane przy użyciu całkowitej mocy obliczeniowej przekraczającej 10^25 FLOP. Niniejszy próg uwzględnia dwa najbardziej zaawansowane modele tego typu, jak np. GPT-4 firmy OpenAI oraz Gemini firmy Google.

Zdaniem organów unijnych systemy AI ogólnego przeznaczenia są na tyle potężne, że mogą stwarzać ryzyko o charakterze systemowym. W związku z tym dostawcy takich systemów będą zobowiązani do oceny i ograniczania ryzyka, zgłaszania poważnych incydentów, przeprowadzania najnowocześniejszych testów i ocen modeli, zapewniania cyberbezpieczeństwa i dostarczania informacji na temat zużycia energii przez ich systemy.

Finansowe kary administracyjne

Cezary Lutyński

OFERTA PROMOCYJNA

Zgodność z AI Act i cyberbezpieczeństwo

Potrzebujesz wsparcia w bezpiecznym wdrożeniu rozwiązań AI? Podczas rozmowy poznasz wymogi AI Act i otrzymasz specjalną ofertę na audyt bezpieczeństwa systemów.

WYBIERZ TERMIN ROZMOWY

Potencjalne kary mogą być bardzo wysokie. Dla przykładu dalsze stosowanie zabronionych AI może spowodować nałożenie kary w wysokości - do 35 mln euro lub 7% całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego (w zależności od tego, która z tych kwot jest wyższa).

Komisja zapowiada, że opracuje wytyczne dotyczące przepisów i praktyk w zakresie nakładania kar.

Czy chcesz wiedzieć więcej?

Rozporządzenie unijne dotyczące sztucznej inteligencji to obszerny i skomplikowany akt prawny. W grudniu 2023 r. Komisja UE opublikowała dokument zawierający zestaw pytań i odpowiedzi, w którym szerzej wyjaśnia cel wprowadzenia i podstawowe zasady nowej regulacji. Zapraszamy do lektury polskiego tłumaczenia tej publikacji.

AI Act: Tłumaczenie

Dlaczego potrzebne są regulacje dotyczące wykorzystywania sztucznej inteligencji?

Potencjalne korzyści dla społeczeństwa, które płyną ze sztucznej inteligencji (AI), są różnorodne – od poprawy opieki medycznej po usprawnienie edukacji. W obliczu szybkiego rozwoju technologicznego sztucznej inteligencji UE postanowiła działać jednomyślnie, aby wykorzystać istniejące szanse.

Akt w sprawie sztucznej inteligencji stanowi pierwsze na świecie kompleksowe uregulowanie prawne dotyczące tej tematyki. Jego celem jest przeciwdziałanie zagrożeniom dla bezpieczeństwa, zdrowia oraz praw podstawowych. Rozporządzenie ma również chronić demokrację, praworządność i środowisko.

Mimo że większość systemów AI stwarza niewielkie lub wręcz zerowe ryzyko, to niektóre z nich generują zagrożenia, którymi należy się zająć, aby uniknąć niepożądanych rezultatów.

Dla przykładu, brak przejrzystości wielu algorytmów może wywoływać niepewność i utrudniać skuteczne egzekwowanie obowiązujących przepisów w zakresie bezpieczeństwa i ochrony praw podstawowych. W odpowiedzi na te wyzwania konieczne było podjęcie działań legislacyjnych w celu zapewnienia sprawnego funkcjonowania rynku wewnętrznego systemów AI, na którym uwzględnia się zarówno korzyści, jak i zagrożenia.

Odnosi się to do zastosowań w systemach identyfikacji biometrycznej lub przy podejmowaniu za pomocą AI decyzji dotyczących ważnych interesów personalnych, takich jak rekrutacja, edukacja, opieka zdrowotna lub egzekwowanie prawa.

Dzięki najnowszym postępom w dziedzinie sztucznej inteligencji powstaje coraz silniejsza generatywna AI. Tak zwane modele AI ogólnego przeznaczenia, które są włączane do wielu systemów AI, stają się zbyt ważne dla gospodarki i społeczeństwa, by nie podlegać regulacjom. W świetle potencjalnego ryzyka o charakterze systemowym UE wdraża skuteczne przepisy i efektywny nadzór.

Jakie zagrożenia zostaną uwzględnione w nowych przepisach dotyczących sztucznej inteligencji?

Wdrożenie systemów sztucznej inteligencji ma duży potencjał. Może przynieść korzyści społeczne, wzrost gospodarczy, zwiększyć innowacyjność i globalną konkurencyjność UE. Niemniej w pewnych przypadkach specyficzne cechy niektórych systemów AI mogą stwarzać nowe zagrożenia związane z bezpieczeństwem użytkowników i ochroną praw podstawowych. Część z potężnych i powszechnie stosowanych modeli AI może nieść ryzyko o charakterze systemowym.

Budzi to niepewność prawną wśród firm i powoduje potencjalnie wolniejsze wdrażanie technologii AI przez przedsiębiorstwa i obywateli ze względu na brak zaufania. Zróżnicowane podejście regulacyjne organów krajowych do tego zagadnienia groziłoby fragmentacją rynku wewnętrznego.

Kogo dotyczy akt w sprawie sztucznej inteligencji?

Ramy prawne będą miały zastosowanie zarówno do podmiotów publicznych, jak i do podmiotów prywatnych w UE i poza nią, o ile system sztucznej inteligencji jest wdrażany na rynku unijnym lub jego wykorzystanie ma wpływ na osoby znajdujące się w UE.

Regulacje mogą dotyczyć zarówno dostawców (np. twórców narzędzia służącego do weryfikacji CV), jak i podmiotów korzystających z systemów AI wysokiego ryzyka (np. banku decydującego się na zakup takiego narzędzia). Importerzy systemów AI będą musieli się również upewnić, że zagraniczny dostawca przeprowadził odpowiednią procedurę oceny zgodności i otrzymał europejskie oznakowanie zgodności (CE) oraz że do systemu dołączono wymaganą dokumentację i instrukcję użytkowania.

Ponadto w unijnym akcie przewidziano szczególne obowiązki dla dostawców modeli AI ogólnego przeznaczenia, w tym dużych generatywnych modeli AI.

Dostawcy bezpłatnych i otwartych modeli będą zwolnieni z większości powyższych obowiązków. Wyłączenie to nie dotyczy dostawców modeli AI ogólnego przeznaczenia, które są obarczone ryzykiem o charakterze systemowym.

Omawiane obowiązki nie mają zastosowania do działań badawczych, rozwojowych i prototypów poprzedzających wprowadzenie na rynek. Co więcej, rozporządzenie nie ma zastosowania do systemów AI, które są przeznaczone wyłącznie do celów wojskowych, obronnych lub bezpieczeństwa narodowego – niezależnie od rodzaju podmiotu prowadzącego te działania.

Kiedy ostatnio robiłeś analizę ryzyka?

Jakie są kategorie ryzyka?

Komisja proponuje podejście oparte na ryzyku, z czterema poziomami ryzyka dla systemów sztucznej inteligencji, a także określenie ryzyka specyficznego dla modeli ogólnego przeznaczenia:

  1. Ryzyko minimalne: Wszystkie systemy AI, które nie zaliczają się do pozostałych poziomów, mogą być rozwijane i wykorzystywane zgodnie z obowiązującymi przepisami bez dodatkowych obowiązków prawnych. Do tej kategorii należy zdecydowana większość systemów AI, które są obecnie używane lub prawdopodobnie będą używane w UE. Dostawcy takich systemów z własnej woli mogą podjąć decyzję o stosowaniu wymogów dotyczących godnej zaufania AI oraz o przestrzeganiu dobrowolnych kodeksów postępowania.
  2. Wysokie ryzyko: Ograniczona liczba systemów AI określonych we wniosku, mogących potencjalnie wywierać niekorzystny wpływ na bezpieczeństwo osób lub ich praw podstawowych (chronionych Kartą praw podstawowych UE), jest uznawana za systemy wysokiego ryzyka. W załączniku do rozporządzenia znajduje się wykaz systemów AI wysokiego ryzyka, który może zostać poddany przeglądowi w celu dostosowania do rozwoju zastosowań AI.
  3. Ten poziom dotyczy również elementów bezpieczeństwa produktów objętych sektorowym prawodawstwem unijnym. Tego rodzaju elementy będą zawsze uznawane za obarczone wysokim ryzykiem, jeśli będą podlegać ocenie zgodności przeprowadzanej przez stronę trzecią na mocy przepisów sektorowych.
  4. Niedopuszczalne ryzyko: Ta kategoria obejmuje określony zbiór szczególnie szkodliwych zastosowań AI, które są sprzeczne z wartościami UE, ponieważ naruszają prawa podstawowe, i w związku z tym będą zakazane. Są to:
  • ocena społeczna do celów publicznych i prywatnych;
  • wykorzystywanie osób podatnych na zagrożenia, stosowanie technik podprogowych;
  • zdalna identyfikacja biometryczna w czasie rzeczywistym w miejscach publicznie dostępnych realizowana przez organy ścigania, z zastrzeżeniem nielicznych wyjątków (patrz poniżej);
  • biometryczna kategoryzacja osób fizycznych na podstawie danych biometrycznych w celu ustalenia lub określenia rasy tych osób, poglądów politycznych, przynależności do związków zawodowych, przekonań religijnych lub filozoficznych lub orientacji seksualnej. Filtrowanie zbiorów danych na podstawie danych biometrycznych w obszarze egzekwowania prawa będzie nadal możliwe;
  • indywidualny system nadzoru predykcyjnego;
  • rozpoznawanie emocji w miejscu pracy i w instytucjach edukacji, z wyjątkiem sytuacji, gdy jest to podyktowane względami medycznymi lub względami bezpieczeństwa (np. monitorowanie poziomu zmęczenia pilota);
  • nieukierunkowane pozyskiwanie wizerunków twarzy z Internetu lub kamer monitoringu w celu tworzenia lub rozszerzania baz danych.
  1. Szczególne ryzyko w zakresie przejrzystości: W przypadku niektórych systemów AI konieczne jest spełnienie szczegółowych wymogów w zakresie przejrzystości, np. gdy istnieje wyraźne ryzyko manipulacji (tak jak w przypadku korzystania z chatbotów). Użytkownicy powinni być świadomi, że wchodzą w interakcję z maszyną.

Ponadto akt w sprawie sztucznej inteligencji uwzględnia ryzyko o charakterze systemowym, które może wynikać z korzystania z modeli AI ogólnego przeznaczenia, w tym dużych generatywnych modeli AI. Takie modele mogą być wykorzystywane do różnych zadań i stają się bazą dla wielu systemów AI w UE. Niektóre z tych modeli mogą stwarzać ryzyko o charakterze systemowym, jeśli są bardzo funkcjonalne lub szeroko stosowane. Na przykład potężne modele mogą być przyczyną poważnych incydentów lub mogą być wykorzystywane niewłaściwie do przeprowadzania szeroko zakrojonych cyberataków. Dużo osób mogłoby ucierpieć, gdyby model w wielu aplikacjach rozpowszechniał krzywdzące wobec nich uprzedzenia.

W jaki sposób ustalić, czy system sztucznej inteligencji jest obarczony wysokim ryzykiem?

Wraz z klarowną definicją „wysokiego ryzyka” rozporządzenie określa także rzetelną metodologię, która pomoże w identyfikacji systemów AI wysokiego ryzyka zgodnie z wyznaczonymi ramami prawnymi. Ma to na celu zapewnienie pewności prawnej przedsiębiorstwom i innym podmiotom.

Klasyfikacja ryzyka opiera się na kryterium planowanego celu systemu AI przy zachowaniu zgodności z obowiązującymi przepisami UE dotyczącymi bezpieczeństwa produktów. Oznacza to, że klasyfikacja ryzyka zależy od funkcji pełnionej przez system AI oraz od konkretnego celu i warunków, w których system jest wykorzystywany.

W załączniku do rozporządzenia znajduje się wykaz przypadków zastosowań systemów AI uznanych za obarczone wysokim ryzykiem. Komisja zagwarantuje, że lista ta będzie stale aktualizowana i dostosowywana. Systemy znajdujące się w wykazie zastosowań wysokiego ryzyka, które wykonują ograniczone czynności proceduralne, poprawiają wyniki wcześniejszych działań człowieka, nie wpływają na jego decyzje lub wykonują zadania czysto przygotowawcze, nie są uważane za powodujące wysokie ryzyko. System AI będzie jednak zawsze uznawany za system wysokiego ryzyka, jeśli wykonuje profilowanie osób fizycznych.

Jakie są obowiązki dostawców systemów AI wysokiego ryzyka?

Marcin Kuźniak

OFERTA PROMOCYJNA

Przygotuj się na regulacje AI w swojej firmie

Zastanawiasz się, jak dostosować wykorzystanie AI do nowych wymogów prawnych? Podczas konsultacji ocenimy Twoją zgodność z AI Act i otrzymasz rabat na kompleksową analizę ryzyka.

WYBIERZ TERMIN ROZMOWY

Przed wprowadzeniem systemu AI wysokiego ryzyka na rynek UE lub oddaniem go do użytku w inny sposób dostawcy muszą poddać system ocenie zgodności. Umożliwi to wykazanie, że ich system spełnia obowiązkowe wymogi dotyczące wiarygodności AI (takie jak jakość danych, dokumentacja, identyfikowalność, przejrzystość, nadzór ludzki, dokładność, cyberbezpieczeństwo i niezawodność). Ocena powinna zostać powtórzona, jeżeli system lub jego cel zostaną znacząco zmodyfikowane.

Systemy AI będące komponentami bezpieczeństwa produktów, które są objęte sektorowym prawem unijnym, zawsze będą uznawane za obarczone wysokim ryzykiem, jeżeli podlegają ocenie zgodności przeprowadzanej przez stronę trzecią na podstawie tego sektorowego prawa. Również w przypadku systemów biometrycznych zawsze wymagana jest ocena zgodności dokonana przez stronę trzecią.

Dostawcy systemów AI wysokiego ryzyka będą musieli wdrożyć także systemy zarządzania jakością i ryzykiem, aby zapewnić zgodność z nowymi wymogami i minimalizować ryzyko dla użytkowników i osób objętych oddziaływaniem, nawet jeśli produkt już został wprowadzony na rynek.

Systemy AI wysokiego ryzyka, które są wdrażane przez organy publiczne lub podmioty działające w ich imieniu, będą musiały zostać zarejestrowane w publicznej bazie danych UE, chyba że są wykorzystywane do celów egzekwowania prawa i na potrzeby związane z imigracją. W takim przypadku systemy będą musiały być rejestrowane w niepublicznej części bazy danych, która będzie dostępna tylko dla właściwych organów nadzorczych.

Organy nadzoru rynku będą wspierać proces monitorowania systemu AI po wprowadzeniu go na rynek poprzez audyty oraz dzięki umożliwieniu dostawcom zgłaszania poważnych incydentów lub naruszeń obowiązków w zakresie ochrony praw podstawowych, w sytuacji gdy uzyskają informacje o takich zdarzeniach. Każdy organ nadzoru rynku może w wyjątkowych przypadkach zezwolić na wprowadzenie do obrotu określonego systemu AI wysokiego ryzyka.

Dzięki wprowadzonym przepisom organy krajowe w razie stwierdzenia naruszenia będą miały dostęp do informacji niezbędnych do sprawdzenia, czy korzystanie z systemu AI było zgodne z prawem.

Jakie są przykłady zastosowań systemów AI wysokiego ryzyka zdefiniowanych w załączniku III?

  • Niektóre elementy infrastruktury krytycznej, np. w zakresie ruchu drogowego oraz zaopatrzenia w wodę, gaz, ogrzewanie i energię elektryczną.
  • Edukacja i szkolenia zawodowe, np. w celu oceny efektów nauczania oraz kontroli procesu kształcenia i zapobiegania
  • Zatrudnienie, zarządzanie pracownikami oraz dostęp do samozatrudnienia, np. zamieszczanie ukierunkowanych ogłoszeń o pracę, analizowanie i filtrowanie zgłoszeń do pracy oraz ocena kandydatów.
  • Dostęp do kluczowych prywatnych i publicznych usług i świadczeń (np. opieki zdrowotnej), ocena zdolności kredytowej osób fizycznych oraz ocena i wycena ryzyka w odniesieniu do ubezpieczeń na życie i ubezpieczeń zdrowotnych.
  • Niektóre systemy stosowane w obszarze działania organów ścigania, kontroli granicznej, wymiaru sprawiedliwości i w procesach demokratycznych.
  • Ocena i klasyfikacja połączeń alarmowych.
  • Systemy identyfikacji biometrycznej, kategoryzacji i rozpoznawania emocji (poza kategoriami zabronionymi).
  • Systemy rekomendacji stosowane przez bardzo duże platformy internetowe nie zostały uwzględnione, ponieważ są już objęte innymi przepisami (akt o rynkach cyfrowych [DMA]/akt o usługach cyfrowych [DSA]).

W jaki sposób uregulowane są modele AI ogólnego przeznaczenia? Modele AI ogólnego przeznaczenia, w tym duże generatywne modele AI (GPAI), mogą być wykorzystywane do różnych zadań. Poszczególne modele mogą być zintegrowane z dużą liczbą systemów AI. Istotne jest, aby dostawca, który planuje wykorzystać model AI ogólnego przeznaczenia, dysponował wszystkimi niezbędnymi informacjami. Dzięki temu upewni się, że jego system jest bezpieczny i zgodny z aktem w sprawie sztucznej inteligencji. Z tego też względu akt w sprawie sztucznej inteligencji zobowiązuje dostawców takich modeli do ujawniania określonych informacji dalszym dostawcom systemów AI. Taka przejrzystość umożliwia lepsze zrozumienie tych modeli. Dostawcy modeli AI podczas ich trenowania powinni dodatkowo wdrożyć zasady zapewniające przestrzeganie przepisów dotyczących praw autorskich. Niektóre z tych modeli mogą stwarzać ryzyko o charakterze systemowym z uwagi na ich ogromne możliwości lub szerokie zastosowanie. Obecnie modele AI ogólnego przeznaczenia, które zostały trenowane przy użyciu całkowitej mocy obliczeniowej przekraczającej 10^25 FLOP, są uważane za niosące ryzyko o charakterze systemowym, przy założeniu, że modele trenowane przy użyciu większej mocy obliczeniowej są zazwyczaj bardziej wydajne. Europejski Urząd ds. Sztucznej Inteligencji (ustanowiony w ramach Komisji) będzie mógł aktualizować ten próg w świetle postępu technologicznego. Ponadto będzie mógł w określonych przypadkach określać inne modele jako niosące ryzyko tego typu, w oparciu o dalsze kryteria (np. liczbę użytkowników lub stopień autonomii modelu). Dostawcy modeli stwarzających ryzyko o charakterze systemowym będą zatem zobowiązani do oceny i ograniczania ryzyka, zgłaszania poważnych incydentów, przeprowadzania najnowocześniejszych testów i ocen modeli, zapewniania cyberbezpieczeństwa i dostarczania informacji na temat zużycia energii przez ich modele. Dlatego zostaną poproszeni o współdziałanie z Europejskim Urzędem ds. Sztucznej Inteligencji w celu opracowania kodeksów postępowania. Będą one traktowane jako główne narzędzie do szczegółowego określenia zasad współpracy z innymi ekspertami. Kluczową rolę w nadzorowaniu modeli AI ogólnego przeznaczenia będzie odgrywać zespół naukowy.

Dlaczego 10^25 FLOP jest odpowiednim progiem dla modeli GPAI uznanych za stwarzające ryzyko o charakterze systemowym?

Próg 10^25 FLOP uwzględnia obecnie najbardziej zaawansowane modele GPAI, a mianowicie GPT-4 firmy OpenAI i prawdopodobnie Gemini firmy Google DeepMind. Możliwości modeli przekraczających ten próg nie są jeszcze wystarczająco dobrze poznane. Mogą one stanowić ryzyko o charakterze systemowym, a zatem uzasadnione jest objęcie dostawców tych modeli dodatkowym zestawem obowiązków. Próg FLOP ma służyć jako pierwszy wskaźnik możliwości modelu. Może być podwyższany lub obniżany przez Europejski Urząd ds. Sztucznej Inteligencji, np. w świetle postępów w obiektywnym mierzeniu możliwości modelu i rozwoju mocy obliczeniowej, która jest potrzebna do osiągnięcia określonego poziomu wydajności. Akt w sprawie sztucznej inteligencji może zostać uaktualniony w celu zmiany progu FLOP (za pomocą aktu delegowanego).

Nie ma głupich pytań RODO - są darmowe odpowiedzi!

Czy akt w sprawie sztucznej inteligencji jest rozwiązaniem przyszłościowym?

Rozporządzenie wskazuje różne poziomy ryzyka i zawiera klarowne definicje, w tym dotyczące GPAI. Przepisy określają ukierunkowane na wyniki wymogi dla systemów AI wysokiego ryzyka. Jednak konkretne rozwiązania techniczne i ustalenia operacyjne pozostawiają do uregulowania w standardach branżowych. To one zapewnią elastyczność ram prawnych, która pozwoli na dostosowanie ich do różnych przypadków użycia i umożliwi wprowadzenie nowych rozwiązań technologicznych. Ponadto akt w sprawie sztucznej inteligencji może zostać zmieniony aktami delegowanymi i wykonawczymi, w tym w celu aktualizacji progu FLOP (akt delegowany), dodania kryteriów klasyfikacji modeli GPAI jako stwarzających ryzyko o charakterze systemowym (akt delegowany), zmiany warunków ustanawiania piaskownic regulacyjnych i elementów planów testów w świecie rzeczywistym (akty wykonawcze).

W jaki sposób akt w sprawie sztucznej inteligencji reguluje identyfikację biometryczną?

Zabronione jest wykorzystywanie zdalnej identyfikacji biometrycznej w czasie rzeczywistym w miejscach publicznie dostępnych na potrzeby organów ścigania (np. rozpoznawanie twarzy za pomocą telewizji przemysłowej), chyba że odbywa się to w jednym z poniższych przypadków:

  • działania organów ścigania związane z 16 określonymi przestępstwami;
  • ukierunkowane poszukiwania określonych pokrzywdzonych, sytuacji uprowadzeń, handlu ludźmi i wykorzystywania seksualnego oraz zaginięć lub
  • zapobieganie zagrożeniu życia lub bezpieczeństwa fizycznego osób lub reakcja na aktualne lub możliwe do przewidzenia zagrożenie atakiem terrorystycznym.

Lista 16 przestępstw obejmuje:

  • terroryzm;
  • handel ludźmi;
  • wykorzystywanie seksualne dzieci i tworzenie materiałów przedstawiających wykorzystywanie seksualne dzieci;
  • nielegalny handel środkami odurzającymi i substancjami psychotropowymi;
  • nielegalny handel bronią, amunicją i materiałami wybuchowymi;
  • morderstwo;
  • ciężkie uszkodzenie ciała;
  • nielegalny handel organami i tkankami ludzkimi;
  • nielegalny handel materiałami jądrowymi lub radioaktywnymi;
  • porwania, nielegalne pozbawienie wolności i branie zakładników;
  • przestępstwa podlegające jurysdykcji Międzynarodowego Trybunału Karnego;
  • bezprawne zajęcie samolotu/statku;
  • gwałt;
  • przestępstwa przeciwko środowisku;
  • napad zorganizowany lub rozbój z bronią w ręku;
  • sabotaż, udział w organizacji przestępczej, która jest zaangażowana w co najmniej jedno przestępstwo wymienione powyżej.

Zdalna identyfikacja biometryczna w czasie rzeczywistym stosowana przez organy ścigania będzie wymagać uprzedniego zatwierdzenia przez organ sądowy lub niezależny organ administracyjny. Decyzja ta będzie wiążąca. W nagłych przypadkach zatwierdzenie może nastąpić w ciągu 24 godzin. Jeśli wniosek o zatwierdzenie zostanie odrzucony, wszystkie dane i wyniki będą musiały zostać usunięte.

Powyższa procedura musi być poprzedzona oceną wpływu na prawa podstawowe i powinna zostać zgłoszona odpowiedniemu organowi nadzoru rynku i organowi nadzorującemu ochronę danych. W nagłych przypadkach stosowanie systemu można rozpocząć bez formalnej rejestracji.

Wykorzystanie systemów AI do następczej zdalnej identyfikacji biometrycznej osób objętych dochodzeniem (czyli identyfikacja osób widocznych na zgromadzonym materiale wideo) będzie wymagać uprzedniego zatwierdzenia przez organ sądowy lub niezależny organ administracyjny oraz powiadomienia organu ochrony danych i organu nadzoru rynku.

Dlaczego zdalna identyfikacja biometryczna musi podlegać szczególnym zasadom?

Identyfikacja biometryczna może mieć różne formy. Może być wykorzystywana do identyfikacji użytkownika, np. w celu odblokowania smartfona, lub do czynności sprawdzających i weryfikacyjnych na przejściach granicznych, aby potwierdzić tożsamość osoby na podstawie jej dokumentów podróży („dopasowanie jeden do jednego”).

Identyfikacja biometryczna może być wykorzystywana również zdalnie do identyfikacji osób w tłumie, kiedy wizerunek osoby jest sprawdzany w bazie danych („dopasowanie jeden do wielu”).

Dokładność systemów rozpoznawania twarzy może istotnie różnić się w zależności od szeregu czynników, takich jak jakość kamery, oświetlenie, odległość, baza danych, algorytm oraz pochodzenie etniczne, wiek lub płeć osoby. Dotyczy to również rozpoznawania chodu i głosu oraz innych systemów biometrycznych. Wysoce zaawansowane systemy stale redukują wskaźniki fałszywej identyfikacji.

Mimo że wskaźnik dokładności na poziomie 99% wydaje się wysoki, to nadal może być bardzo ryzykowny, gdyby skutkował rzuceniem podejrzeń na niewinną osobę. Nawet współczynnik błędu na poziomie 0,1% to bardzo dużo, jeżeli dotyczy dziesiątek tysięcy osób.

W jaki sposób przepisy chronią prawa podstawowe?

Praca dobrymi narzędziami RODO to nie praca!

Aplikacje, kalkulatory, RODOmigawki - wszystko, co może ułatwić Ci zarządzanie systemem ochrony danych osobowych.
ZOBACZ WIĘCEJ
Ochrona praw podstawowych oraz zasady przeciwdziałania dyskryminacji już funkcjonują na poziomie UE i państw członkowskich. Problem stanowi jednak złożoność i brak przejrzystości niektórych zastosowań AI („czarne skrzynki”).

Podejście do AI, które jest ukierunkowane na człowieka, wymaga zapewnienia zgodności zastosowań AI z regulacjami dotyczącymi ochrony praw podstawowych. Wymogi dotyczące odpowiedzialności i przejrzystości w odniesieniu do korzystania z systemów AI wysokiego ryzyka w połączeniu z lepszymi możliwościami egzekwowania prawa zapewnią, że zgodność z prawem zostanie uwzględniona już na etapie projektowania.

W przypadku wystąpienia naruszeń przepisy umożliwią organom krajowym uzyskanie dostępu do informacji niezbędnych do wyjaśnienia, czy korzystanie z AI było zgodne z prawem UE.

Ponadto akt w sprawie sztucznej inteligencji wymaga, aby podmioty wdrażające, które są organami publicznymi, podmiotami prywatnymi świadczącymi usługi publiczne bądź dostawcami systemów wysokiego ryzyka, przeprowadzały ocenę skutków dla ochrony praw podstawowych.

Czym jest ocena skutków dla ochrony praw podstawowych? Kto i kiedy musi przeprowadzić taką ocenę?

Korzystanie z systemu AI wysokiego ryzyka może oddziaływać na prawa podstawowe. W związku z tym podmioty wdrażające, które są organami publicznymi, podmiotami prywatnymi świadczącymi usługi publiczne bądź dostawcami systemów wysokiego ryzyka, przeprowadzają ocenę skutków dla ochrony praw podstawowych i powiadamiają organ krajowy o jej wynikach.

Ocena składa się z opisu procesów podmiotu wdrażającego, w których będzie wykorzystywany system AI wysokiego ryzyka, wskazania czasu i częstotliwości, z jaką system AI wysokiego ryzyka ma być wykorzystywany, kategorii osób fizycznych i grup, na które może mieć wpływ korzystanie z systemu AI w określonym kontekście, identyfikacji szczególnych zagrożeń wystąpienia szkód, które mogą dotyczyć tych kategorii osób lub grup osób, a także opisu wdrożenia środków nadzoru przez człowieka oraz środków, które należy podjąć w razie powstania zagrożenia.

Jeżeli dostawca wykonał już ten obowiązek poprzez ocenę skutków dla ochrony danych (DPIA), ocenę skutków dla ochrony praw podstawowych powinien przeprowadzić w powiązaniu z DPIA.

W jaki sposób nowe przepisy odnoszą się do kwestii uprzedzeń rasowych i płciowych w przypadku AI?

To bardzo ważne, aby systemy AI nie tworzyły ani nie powielały uprzedzeń. Właściwie zaprojektowane i wykorzystywane systemy AI mogą raczej przyczynić się do ograniczenia uprzedzeń i dotychczasowej dyskryminacji o charakterze strukturalnym, a tym samym doprowadzić do sprawiedliwszych i niedyskryminujących decyzji (np. w zakresie rekrutacji).

Powyższemu celowi będą służyć nowe wymogi dotyczące wszystkich systemów AI wysokiego ryzyka. Systemy sztucznej inteligencji muszą być niezawodne technicznie, aby zagwarantować, że technologia jest odpowiednia do realizowanego celu, a fałszywie pozytywne lub negatywne wyniki nie wpływają nieproporcjonalnie na chronione grupy (np. ze względu na pochodzenie rasowe lub etniczne, płeć, wiek itp.)

Systemy wysokiego ryzyka będą również musiały być trenowane i testowane przy użyciu wystarczająco reprezentatywnych zestawów danych, aby zminimalizować ryzyko wystąpienia dyskryminujących uprzedzeń wbudowanych w model i zapewnić przeciwdziałanie temu dzięki odpowiedniemu wykrywaniu uprzedzeń, korygowaniu i stosowaniu innych środków zaradczych.

Modele muszą być także możliwe do prześledzenia i skontrolowania, przy zapewnieniu przechowywania odpowiedniej dokumentacji, w tym danych wykorzystywanych do szkolenia algorytmu. Będzie to kluczowe w dochodzeniach ex post.

System zarządzania zgodnością zarówno przed wprowadzeniem, jak i po wprowadzeniu systemów AI na rynek będzie musiał zapewnić ich regularne monitorowanieszybkie reagowanie na potencjalne zagrożenia.

Kiedy akt w sprawie sztucznej inteligencji zacznie w pełni obowiązywać?

Akt w sprawie sztucznej inteligencji po przyjęciu przez Parlament Europejski i Radę wejdzie w życie dwudziestego dnia od opublikowania w Dzienniku Urzędowym Unii Europejskiej. Jego pełne stosowanie rozpocznie się 24 miesiące od wejścia w życie, przy czym po:

  • 6 miesiącach – po wejściu w życie państwa członkowskie stopniowo wycofają zakazane systemy;
  • 12 miesiącach – zaczną być stosowane wymogi dotyczące zarządzania sztuczną inteligencją ogólnego przeznaczenia;
  • 24 miesiącach zastosowanie mają wszystkie przepisy aktu w sprawie sztucznej inteligencji, w tym obowiązki dotyczące systemów wysokiego ryzyka określone w załączniku III (wykaz przypadków wysokiego ryzyka);
  • 36 miesiącach – będą mieć zastosowanie obowiązki dotyczące systemów wysokiego ryzyka określone w załączniku II (wykaz unijnego prawodawstwa harmonizacyjnego) (w aktualnej treści Rozporządzenia to załącznik nr I – przyp. ODO 24).

Funkcja IOD - to się dobrze przekazuje

W jaki sposób akt w sprawie sztucznej inteligencji będzie egzekwowany?

Na szczeblu krajowym państwa członkowskie będą musiały wyznaczyć co najmniej jeden właściwy organ krajowy, a spośród tych organów – krajowy organ nadzorczy, który będzie sprawował nadzór nad stosowaniem i wdrażaniem rozporządzenia, a także prowadził działania w zakresie nadzoru rynku.

Aby zwiększyć skuteczność i ustanowić oficjalny punkt kontaktowy ze społeczeństwem i innymi partnerami, każde państwo członkowskie powinno wyznaczyć jeden krajowy organ nadzorczy, który będzie również reprezentował kraj w Europejskiej Radzie ds. Sztucznej Inteligencji.

Źródłem dodatkowej wiedzy technicznej będzie forum doradcze, reprezentujące zrównoważony dobór zainteresowanych stron, w tym przedstawicieli przemysłu, start­‑upów, MŚP, społeczeństwa obywatelskiego i środowisk akademickich.

Dodatkowo w ramach Komisji zostanie ustanowiony Europejski Urząd ds. Sztucznej Inteligencji. Będzie on nadzorował modele AI ogólnego przeznaczenia i współpracował z Europejską Radą ds. Sztucznej Inteligencji. Wspierać go będzie panel naukowy składający się z niezależnych ekspertów.

Dlaczego Europejska Rada ds. Sztucznej Inteligencji jest potrzebna i czym będzie się zajmować?

Europejska Rada ds. Sztucznej Inteligencji będzie składać się z wysokiego szczebla przedstawicieli właściwych krajowych organów nadzorczych, Europejskiego Inspektora Ochrony Danych i Komisji. Jej zadaniem jest ułatwienie sprawnego, skutecznego i zharmonizowanego wdrożenia nowych regulacji dotyczących sztucznej inteligencji.

Rada będzie wydawać zalecenia i opinie dla Komisji dotyczące systemów AI wysokiego ryzyka oraz innych aspektów istotnych dla skutecznego i jednolitego wdrażania nowych przepisów. Będzie również wspierać działania standaryzujące w tym obszarze.

Jakie zadania będzie miał Europejski Urząd ds. Sztucznej Inteligencji?

Europejski Urząd ds. Sztucznej Inteligencji będzie rozwijał unijną wiedzę fachową i możliwości w dziedzinie sztucznej inteligencji oraz będzie przyczyniał się do wdrażania unijnych przepisów dotyczących AI za pośrednictwem scentralizowanej struktury.

Zadaniem Europejskiego Urzędu ds. Sztucznej Inteligencji będzie w szczególności egzekwowanie i nadzorowanie nowych przepisów dotyczących modeli AI ogólnego przeznaczenia. Dotyczy to przygotowywania kodeksów postępowania w celu uszczegółowienia zasad, roli Urzędu w klasyfikowaniu modeli AI jako stwarzających ryzyko o charakterze systemowym oraz monitorowania skutecznego wdrażania i zgodności z przepisami rozporządzenia. Realizacja ostatniego ze wskazanych zadań będzie ułatwiona dzięki uprawnieniom do żądania dokumentacji, przeprowadzania ocen modeli, prowadzenia dochodzeń w przypadku ostrzeżeń oraz zwracania się do dostawców o podjęcie działań naprawczych.

Urząd ds. Sztucznej Inteligencji zapewni koordynację polityk w dziedzinie AI oraz współpracę między zaangażowanymi instytucjami, organami i agencjami Unii, a także z ekspertami i zainteresowanymi stronami. Urząd w szczególności zadba o silny związek ze środowiskiem naukowym w celu wsparcia egzekwowania prawa. Będzie działał także jako międzynarodowy punkt odniesienia dla niezależnych ekspertów i organizacji eksperckich oraz ułatwi wymianę informacji i współpracę z podobnymi instytucjami na całym świecie.

Czym różnią się Europejska Rada ds. Sztucznej Inteligencji, Europejski Urząd ds. Sztucznej Inteligencji, forum doradcze i panel naukowy niezależnych ekspertów?

Europejska Rada ds. Sztucznej Inteligencji będzie realizować rozszerzone zadania polegające na doradzaniu i wspieraniu Komisji i państw członkowskich.

Europejski Urząd ds. Sztucznej Inteligencji, ustanowiony w ramach Komisji, ma działać na rzecz rozwoju unijnej wiedzy fachowej i możliwości w dziedzinie AI oraz przyczyniać się do wdrażania unijnych przepisów dotyczących AI. W szczególności Europejski Urząd ds. Sztucznej Inteligencji będzie egzekwował i nadzorował nowe przepisy dotyczące modeli AI ogólnego przeznaczenia.

Forum doradcze będzie składało się z wyważonego grona zainteresowanych stron, w tym przedstawicieli przemysłu, start-upów, MŚP, społeczeństwa obywatelskiego i środowisk akademickich. Zadaniem forum będzie doradzanie Radzie i Komisji, a także dostarczanie fachowej wiedzy technicznej. Jego członkowie będą powoływani przez Radę spośród zainteresowanych stron.

Panel naukowy niezależnych ekspertów będzie wspierać wdrażanie i egzekwowanie rozporządzenia w odniesieniu do modeli i systemów GPAI, zapewniając państwom członkowskim dostęp do grona ekspertów.

Jakie kary grożą za naruszenie przepisów?

Diagnoza zgodności RODO.
Zrób to sam

Wykorzystaj elastyczne narzędzie do inwentaryzacji, audytu, przeprowadzenia DPIA oraz analizy ryzyka.
POZNAJ DR RODO
W przypadku wprowadzenia do obrotu systemów AI, które nie spełniają wymogów określonych w nowej regulacji, lub korzystania z takich systemów państwa członkowskie będą musiały ustanowić skuteczne, proporcjonalne i odstraszające kary, w tym kary pieniężne, nakładane w związku z naruszeniami oraz poinformować o nich Komisję.

Przepisy rozporządzenia określają progi, które należy wziąć pod uwagę:

  • do 35 mln euro lub 7% całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego (w zależności od tego, która z tych kwot jest wyższa) za naruszenie zabronionych praktyk lub brak zgodności z wymogami dotyczącymi danych;
  • do 15 mln euro lub 3% całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego za brak zgodności z jakimikolwiek innymi wymogami lub zobowiązaniami wynikającymi z rozporządzenia, w tym za naruszenie przepisów dotyczących modeli AI ogólnego przeznaczenia;
  • do 7,5 mln euro lub 1,5% (w aktualnej treści Rozporządzenia to „1%” – przyp. ODO 24) całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego za udzielenie jednostkom notyfikowanym i właściwym organom krajowym nieprawidłowych, niekompletnych lub wprowadzających w błąd informacji w odpowiedzi na zapytanie;
  • dla każdej kategorii naruszenia – niższa z dwóch wskazanych kwot w przypadku MŚP i wyższa kwota w przypadku innych przedsiębiorców.

W celu zharmonizowania krajowych przepisów i praktyk w zakresie nakładania kar administracyjnych Komisja, opierając się na opinii Rady, opracuje wytyczne.

Jako że instytucje, agencje oraz organy UE powinny służyć przykładem, także one będą podlegać przepisom i ewentualnym karom. Do nakładania na nie kar pieniężnych będzie uprawniony Europejski Inspektor Ochrony Danych.

Co mogą zrobić osoby, których dotyczy naruszenie przepisów?

Akt w sprawie sztucznej inteligencji przyznaje prawo do złożenia skargi do organu krajowego. Na tej podstawie organy krajowe mogą podjąć działania w zakresie nadzoru rynku, zgodnie z obowiązującymi przepisami dotyczącymi tego nadzoru.

Dodatkowo planowane jest wprowadzenie dyrektywy w sprawie odpowiedzialności za sztuczną inteligencję. Ma ona zapewnić osobom, które ubiegają się o naprawę szkody spowodowanej przez systemy AI wysokiego ryzyka, skuteczne środki identyfikacji osób potencjalnie za to odpowiedzialnych oraz możliwość pozyskania stosownych dowodów na potrzeby roszczeń odszkodowawczych. W tym celu proponowana dyrektywa przewiduje obowiązek ujawnienia dowodów dotyczących konkretnych systemów AI wysokiego ryzyka, co do których istnieje podejrzenie, że spowodowały szkodę.

Ponadto proponowana nowelizacja dyrektywy w sprawie odpowiedzialności za produkt zapewni prawo do odszkodowania osobom, które zostały poszkodowane na skutek śmierci, obrażeń ciała lub szkód majątkowych spowodowanych przez wadliwy produkt w Unii. Dyrektywa także doprecyzuje, że systemy AI i produkty, które integrują systemy AI, są również objęte obowiązującymi przepisami.

Jak będą działały dobrowolne kodeksy postępowania dla systemów AI wysokiego ryzyka?

Dostawcy aplikacji nieobarczonych wysokim ryzykiem mogą zagwarantować, że ich system AI jest godny zaufania, dzięki opracowaniu własnych dobrowolnych kodeksów postępowania lub przestrzeganiu kodeksów postępowania przyjętych przez inne reprezentatywne stowarzyszenia.

Kodeksy te będą miały zastosowanie jednocześnie z obowiązkami w zakresie przejrzystości w odniesieniu do niektórych systemów AI.

Komisja będzie zachęcać stowarzyszenia branżowe i inne organizacje reprezentatywne do przyjmowania dobrowolnych kodeksów postępowania.

Jak będą działały kodeksy postępowania dotyczące modeli AI ogólnego przeznaczenia?

Komisja zaprasza dostawców modeli AI ogólnego przeznaczenia i innych ekspertów do wspólnej pracy nad kodeksami postępowania.

Kodeksy opracowane i zatwierdzone na potrzeby tego procesu będą mogły być stosowane przez dostawców modeli AI ogólnego przeznaczenia, aby wykazywać przestrzeganie obowiązków wynikających z aktu w sprawie sztucznej inteligencji, tak jak funkcjonuje to na gruncie RODO.

Kodeksy są istotne dla doprecyzowania reguł obowiązujących dostawców modeli AI ogólnego przeznaczenia, z którymi mogą wiązać się ryzyka o charakterze systemowym. Uszczegółowienie reguł pozwoli na stworzenie przyszłościowych i skutecznych zasad oceny i ograniczania ryzyka, jak również na wypełnianie innych obowiązków.

Praktyczny kurs IOd potwierdzi Twoje wysokie kompetencje

Czy akt w sprawie sztucznej inteligencji zawiera przepisy dotyczące ochrony środowiska i zrównoważonego rozwoju?

Celem proponowanej regulacji jest zapewnienie bezpieczeństwa i ochrona praw podstawowych, w tym prawa podstawowego do wysokiego poziomu ochrony środowiska. Jednym z wyraźnie wymienionych i chronionych interesów prawnych jest właśnie ochrona środowiska.

Komisja zwróci się do europejskich organizacji normalizacyjnych o opracowanie dokumentu standaryzacyjnego dotyczącego procesów raportowania i dokumentowania w celu poprawy wydajności systemów AI pod względem zasobów. Obejmuje to zmniejszenie zużycia energii i innych zasobów przez system AI wysokiego ryzyka w trakcie jego eksploatacji oraz energooszczędne opracowywanie modeli AI ogólnego przeznaczenia.

Ponadto Komisja będzie zobowiązana do przedłożenia w terminie dwóch lat od daty rozpoczęcia stosowania rozporządzenia, a następnie co cztery lata, sprawozdania z przeglądu postępów w opracowywaniu wyników standaryzacji w zakresie energooszczędnego rozwoju modeli ogólnego przeznaczenia oraz oceny, czy zachodzi potrzeba podjęcia dalszych środków lub działań, w tym środków lub działań wiążących.

Dodatkowo dostawcy modeli AI ogólnego przeznaczenia, które są szkolone na dużych ilościach danych, a zatem charakteryzują się wysokim zużyciem energii, będą zobowiązani do ujawniania zużycia energii.

Komisję wezwano do opracowania odpowiedniej metodologii tej oceny.

W przypadku modeli AI ogólnego przeznaczenia, które stwarzają ryzyko o charakterze systemowym, należy również ocenić efektywność energetyczną.

W jaki sposób nowe przepisy mogą wesprzeć innowacje?

Ramy regulacyjne mogą zwiększyć popularność AI na dwa sposoby. Z jednej strony wzrost zaufania użytkowników zwiększy popyt na AI, z której korzystają firmy i organy publiczne. Z drugiej strony dzięki zwiększeniu pewności prawnej i harmonizacji przepisów dostawcy AI uzyskają dostęp do większych rynków z ofertą produktów, które użytkownicy i konsumenci docenią i kupią. Przepisy będą miały zastosowanie wyłącznie tam, gdzie jest to absolutnie konieczne, co możliwie zminimalizuje obciążenie podmiotów gospodarczych.

Akt w sprawie sztucznej inteligencji umożliwi także tworzenie piaskownic regulacyjnych i przeprowadzanie testów w świecie rzeczywistym. Zapewnią one kontrolowane środowisko do testowania innowacyjnych technologii przez ograniczony czas, wspierając tym samym innowacje przedsiębiorstw, MŚP i start-upów z poszanowaniem postanowień rozporządzenia. Zarówno wymienione środki, jak i inne: dodatkowe sieci centrów doskonalenia sztucznej inteligencji oraz partnerstwo publiczno-prywatne na rzecz sztucznej inteligencji, danych i robotyki, a także dostęp do centrów innowacji cyfrowych (EDIH) oraz ośrodków testowania i eksperymentowania (TEF), pomogą stworzyć odpowiednie warunki ramowe dla firm w zakresie opracowywania i wdrażania AI.

Testy w świecie rzeczywistym systemów AI wysokiego ryzyka mogą być prowadzone przez maksymalnie 6 miesięcy (z możliwością przedłużenia o kolejne 6 miesięcy). Przed rozpoczęciem testów należy sporządzić plan i przedłożyć go organowi nadzoru rynku. Musi on zatwierdzić ten plan i szczegółowe warunki testów. Jeśli organ nie odpowie w ciągu 30 dni, dopuszczono załatwienie sprawy w trybie milczącej zgody. Testy mogą jednak podlegać niezapowiedzianym kontrolom organu.

Testy w świecie rzeczywistym mogą być przeprowadzane wyłącznie przy zastosowaniu określonych zabezpieczeń, np. użytkownicy systemów poddawanych takim testom muszą wyrazić świadomą zgodę, testy nie mogą wywierać na nich żadnego negatywnego wpływu, wyniki muszą być odwracalne lub możliwe do zignorowania, a zgromadzone dane muszą zostać usunięte po zakończeniu testów. Specjalną ochronę należy zapewnić grupom szczególnie wrażliwym, tj. ze względu na wiek, niepełnosprawność fizyczną lub umysłową.

W jaki sposób, poza aktem w sprawie sztucznej inteligencji, UE będzie ułatwiać i wspierać innowacje w dziedzinie AI?

Podejście UE do sztucznej inteligencji opiera się na dążeniu do zapewnienia najwyższej jakości i na budowaniu zaufania. Ma to na celu zwiększenie potencjału badawczego i przemysłowego przy jednoczesnym zadbaniu o bezpieczeństwo i ochronę praw podstawowych. Obywatele i przedsiębiorcy powinni móc czerpać korzyści z AI, a przy tym mieć poczucie bezpieczeństwa i właściwej ochrony. Europejska strategia w zakresie sztucznej inteligencji ma na celu uczynienie z UE światowej klasy centrum AI. Dąży również do tego, by AI była ukierunkowana na potrzeby człowieka i godna zaufania. W kwietniu 2021 r. Komisja przedstawiła pakiet dotyczący AI, w tym (1) przegląd skoordynowanego planu w sprawie sztucznej inteligencji oraz (2) wniosek dotyczący rozporządzenia ustanawiającego zharmonizowane przepisy regulujące AI.

W ramach skoordynowanego planu Komisja przyjęła kompleksową strategię promowania rozwoju i wdrażania AI w Europie. Strategia ta koncentruje się na tworzeniu warunków sprzyjających rozwojowi i upowszechnianiu AI, zapewnianiu najwyższej jakości od etapu laboratoriów po rynek, zwiększaniu wiarygodności AI oraz budowaniu strategicznego przywództwa w sektorach o dużym wpływie.

Komisja dąży do wspierania działań państw członkowskich przez koordynację i harmonizację ich wysiłków, aby promować spójne i synergiczne podejście do rozwoju i wdrażania AI. Komisja uruchomiła platformę European AI Alliance, która skupia zainteresowane strony reprezentujące środowisko akademickie, przemysł i społeczeństwo obywatelskie w celu wymiany wiedzy i spostrzeżeń na temat polityki w zakresie AI.

Ponadto skoordynowany plan przewiduje wiele środków, które mają odblokować zasoby danych, wspierać krytyczne zdolności obliczeniowe, zwiększyć potencjał badawczy, pomagać europejskim sieciom ośrodków testowania i eksperymentowania (TEF) oraz MŚP za pośrednictwem europejskich centrów innowacji cyfrowych (EDIH).

Na czym polega międzynarodowy aspekt podejścia UE?

Akt w sprawie sztucznej inteligencji i skoordynowany plan są częścią wysiłków UE na rzecz osiągnięcia statusu światowego lidera w promowaniu godnej zaufania AI na szczeblu międzynarodowym. Sztuczna inteligencja stała się obszarem o strategicznej wadze na styku geopolityki, interesów handlowych i kwestii bezpieczeństwa.

Państwa na całym świecie decydują się na wykorzystanie AI jako narzędzia do zaspokojenia swoich aspiracji w zakresie postępu technicznego. Dzieje się tak ze względu na jej użyteczność i potencjał. Regulacje dotyczące AI dopiero powstają, a UE chce podjąć działania wspierające wyznaczanie globalnych standardów AI w ścisłej współpracy z partnerami międzynarodowymi, zgodnie z multilateralnym systemem opartym na zasadach i wartościach, na których straży stoi. UE zamierza pogłębić relacje partnerskie, koalicje i sojusze ze swoimi partnerami (np. Japonią, USA, Indiami, Kanadą, Koreą Południową, Singapurem oraz regionem Ameryki Łacińskiej i Karaibów), a także z organizacjami o charakterze międzynarodowym (np. OECD, G7 i G20) i regionalnym (np. Radą Europy).

quiz

Sprawdź co pamiętasz - za poprawną odpowiedź nagroda!

Czy UE pozwala na korzystanie z AI w rekrutacji?

Czytaj także:

Najczęstsze błędy przy zawieraniu umów powierzenia

„Nie potrzebujemy dokumentacji IT, wiemy jak mamy działać”

Jesteś tego pewien?

Zamów
audyt IT

Administratorem Twoich danych jest ODO 24 sp. z o.o. z siedzibą w Warszawie (03-812) przy ul. Kamionkowskiej 45. Twoje dane są przetwarzane w celu świadczenia usługi biuletyn informacyjny na zasadach określonych w Regulaminie ŚUDE. Więcej informacji na temat procesu przetwarzania danych osobowych oraz przysługujących Ci praw uzyskasz w Polityce prywatności.
Potwierdź swój adres e-mail
Wejdź na swoją skrzynkę pocztową, otwórz wiadomość od ODO 24 i potwierdź adres e-mail, klikając w link.
Jeżeli nie znajdziesz naszej wiadomości - sprawdź w folderze SPAM. Aby w przyszłości to się nie powtórzyło oznacz wiadomość jako pożądaną (klikniknij prawym przyciskiem myszy i wybierz "Oznacz jako wiadomość pożądaną").
Odbierz bezpłatny pakiet 4 poradników
i 4 szkoleń e-learningowych RODO
4x4 - Odbierz bezpłatny pakiet 4 poradników i 4 szkoleń RODO
Administratorem Twoich danych jest ODO 24 sp. z o.o. z siedzibą w Warszawie (03-812) przy ul. Kamionkowskiej 45. Twoje dane są przetwarzane w celu świadczenia usługi biuletyn informacyjny na zasadach określonych w Regulaminie ŚUDE. Więcej informacji na temat procesu przetwarzania danych osobowych oraz przysługujących Ci praw uzyskasz w Polityce prywatności.
Administratorem Twoich danych jest ODO 24 sp. z o. o. >>>