Wakacyjna promocja na szkolenia otwarte   Więcej         Bezpłatne webinary   Więcej          

Opinia EIOD na temat Białej Księgi
dotyczącej sztucznej inteligencji

RODO w zamówieniach publicznych

W lutym bieżącego roku Komisja Europejska opublikowała Białą Księgę dotyczącą sztucznej inteligencji (ang. White Paper on AI), jednocześnie rozpoczynając konsultacje dotyczące jej treści.

W ostatnim czasie swoją opinię na temat dokumentu przedstawił Europejski Inspektor Ochrony Danych.

O czym mówi Biała Księga?

Zacznijmy od początku – o czym mówi wspomniana Biała Księga? To ogólny raport na temat funkcjonowania sztucznej inteligencji wraz ze wskazaniem pożądanych kierunków przyszłych regulacji, które mają to funkcjonowanie objąć. Jak wskazano w dokumencie, kluczowe elementy przyszłych regulacji mają stworzyć wyjątkowy „ekosystem zaufania”, zapewniać poszanowanie przepisów UE, w tym przepisów służących ochronie praw podstawowych i praw konsumentów, w szczególności w odniesieniu do wykorzystywanych w UE systemów SI charakteryzujących się wysokim ryzykiem (na marginesie warto wspomnieć, że w swojej opinii na temat Białej Księgi Google wskazuje, że pojęcie wysokiego ryzyka zawarte w dokumencie wymaga dalszego doprecyzowania).

EIOD w swojej opinii skrytykował wprowadzenie w dokumencie więcej niż jednej, konkretnej definicji sztucznej inteligencji. Jedna z nich określa AI (ang. artificial intelligence) jako „połączenie danych, algorytmów i mocy obliczeniowej”. W ocenie EIOD jest ona niejasna i ma zastosowanie również do innych technologii (np. do big data). Jak stwierdza Inspektor, definicja AI powinna uwzględniać:

  • model decyzyjny,
  • algorytm, który przekłada ten model na kod obliczalny,
  • dane, które ten kod wykorzystuje jako dane wejściowe,
  • środowisko otaczające jego użycie.

Dodatkowo, Biała Księga nie określa kryteriów mających służyć ocenie poziomu „dojrzałości” AI w zastosowaniu do konkretnego obszaru.

EIOD wskazał, że zastosowanie AI powinno w każdym przypadku podlegać dokładnej analizie. Zauważa również, że niektóre zastosowania AI (np. rozpoznawanie twarzy) kłócą się z podstawowymi prawa i wolnościami człowieka, mogąc podważyć ich istotę.

Usługa DPIA

W ocenie Inspektora należy w pełni efektywnie wykorzystać obowiązujące ramy prawne i z dużą ostrożnością tworzyć nowe. EIOD zgadza się, że w odniesieniu do systemów AI wykorzystywanych w UE sprawą najwyższej wagi jest przestrzeganie przepisów UE przez wszystkie podmioty, niezależnie od tego, czy mają siedzibę w UE, czy nie. Podkreślił, ze europejskie przepisy dotyczące ochrony danych osobowych są neutralne technologicznie i nie stanowią przeszkody w pomyślnym implementowaniu nowych technologii, w szczególności AI. Zdaniem EIOD, RODO zawiera już kluczowe dla „wiarygodności” AI wymagania wobec tej technologii, tj. przejrzystości, identyfikowalności oraz nadzoru człowieka, i ma zastosowanie zarówno do sektora prywatnego, jak i do przetwarzania danych osobowych przez podmioty publiczne.

W zakresie ryzyk wynikających z użycia AI EIOD podkreśla, ze oprócz tych wskazanych w Białej Księdze, również zwiększona inwigilacja i niewłaściwe formy zarządzania (np. poprzez oparte na uczeniu maszynowym klasyfikacje i prognozy, w tym dotyczące zachowania osób, z rozpoznawaniem twarzy lub bez niego) powinny również być uważane za ważne czynniki ryzyka, ze względu na ich potencjalny efekt mrożący dla innych praw podstawowych.

W Białej Księdze zwraca się uwagę na możliwość „uprzedzeń” w związku z uczeniem maszynowym. Dla przykładu, niektóre algorytmy AI, wykorzystywane w celu przewidywania recydywy kryminalnej, mogą wykazywać uprzedzenia płciowe i rasowe, wykazując różne prawdopodobieństwo przewidywania recydywy u kobiet w porównaniu do mężczyzn lub obywateli w porównaniu do cudzoziemców.  EIOD nie zgadza się ze stwierdzeniem, ze w związku z tym że AI „uczy się” podczas działania, nie można zapobiec ani przewidzieć rezultatów tego na etapie projektowania, zaś ryzyko nie będzie wynikało z uchybień w pierwotnej konstrukcji systemu AI, ale raczej z praktycznych skutków korelacji lub wzorców, które dany system AI identyfikuje w dużym zbiorze danych. EIOD uważa, że - przeciwnie - projekt systemu AI powinien uwzględniać potencjalne odchylenia w danych szkoleniowych oraz, w stosownych przypadkach, w danych operacyjnych. Odchylenie może i musi być mierzone i korygowane zarówno podczas działania systemu AI, jak i podczas jego opracowywania.

ODO Nawigator

Europejski Inspektor zwraca uwagę na niedoprecyzowanie w Białej Księdze pojęcia wysokiego ryzyka, co mogłoby zostać zniwelowane poprzez zastosowanie systemu klasyfikacji ryzyka (EIOD uważa, że pojęcie „wysokiego ryzyka” wskazane w Białej Księdze jest zbyt wąskie). Zdaniem organu podejście do określania poziomu ryzyka związanego z wykorzystaniem AI powinno być bardziej niezawodne i dopracowane, jak ma to miejsce w Wytycznych dotyczących oceny skutków dla ochrony danych. EIOD uważa też, że ocena poziomu ryzyka danego zastosowania AI powinna opierać się na szerszym kontekście społecznym, w tym uwzględniać wpływ na proces demokratyczny, praworządność, interes publiczny, potencjalne zwiększenie ogólnej inwigilacji, wpływ na środowisko oraz możliwą koncentrację sił rynkowych. EIOD sugeruje też, że należy zabronić stosowania niektórych scenariuszy zastosowania AI wysokiego ryzyka, jeżeli ich wpływ na jednostki i całe społeczeństwo nie jest jeszcze w pełni zrozumiały. Zdaniem EIOD KE nie odniosła się wyraźnie do zawartej w art. 35 RODO oceny skutków dla ochrony danych. EIOD sugeruje, żeby przyszłe ramy prawne AI określały wymóg oceny oddziaływania na ochronę danych każdego planowanego zastosowania systemów sztucznej inteligencji.

Europejski Inspektor zwraca uwagę na niedoprecyzowanie w BiaZdaniem EIOD, przejrzystość aplikacji AI powinna zagwarantować użytkownikom dostarczenie jasnych informacji w zakresie wykorzystywanych systemów sztucznej inteligencji. Istotne jest też, aby ramy prawne AI pozwała uniknąć nakładania się kompetencji różnych organów nadzorczych i obejmowały mechanizm współpracy pomiędzy nimi.

Na końcu warto wspomnieć, że w odniesieniu do zdalnej identyfikacji biometrycznej EIOD popiera ideę odroczenia wprowadzenia w UE zautomatyzowanego rozpoznawania w przestrzeni publicznej cech ludzkich, nie tylko twarzy, ale także chodu, odcisków palców, DNA, głosu, naciśnięcia klawiszy i innych dane biometrycznych lub sygnałów behawioralnych, aby można było przeprowadzić świadomą i demokratyczną debatę do momentu, w którym UE i wszystkie państwa członkowskie będą miały odpowiednie zabezpieczenia, w tym kompleksowe ramy prawne w celu zagwarantowania proporcjonalności technologii i systemów dla konkretnego przypadku użycia.

-
Udostępnij na: -

Najpopularniejsze

Najnowsze


R.pr. Katarzyna Szczypińska
02 lipca 2020

Zapisz się na biuletyn

  • Najważniejsze informacje
  • Nowości, narzędzia, gratisy
  • Raz w miesiącu

Zapisz się