Opinia EIOD na temat Białej Księgi dotyczącej sztucznej inteligencji

W lutym bieżącego roku Komisja Europejska opublikowała Białą Księgę dotyczącą sztucznej inteligencji (ang. White Paper on AI), jednocześnie rozpoczynając konsultacje dotyczące jej treści. W ostatnim czasie swoją opinię na temat dokumentu przedstawił Europejski Inspektor Ochrony Danych.

O czym mówi Biała Księga?

Zacznijmy od początku – o czym mówi wspomniana Biała Księga? To ogólny raport na temat funkcjonowania sztucznej inteligencji wraz ze wskazaniem pożądanych kierunków przyszłych regulacji, które mają to funkcjonowanie objąć.

Jak wskazano w dokumencie, kluczowe elementy przyszłych regulacji mają stworzyć wyjątkowy „ekosystem zaufania”, zapewniać poszanowanie przepisów UE, w tym przepisów służących ochronie praw podstawowych i praw konsumentów, w szczególności w odniesieniu do wykorzystywanych w UE systemów SI charakteryzujących się wysokim ryzykiem (na marginesie warto wspomnieć, że w swojej opinii na temat Białej Księgi Google wskazuje, że pojęcie wysokiego ryzyka zawarte w dokumencie wymaga dalszego doprecyzowania).

EIOD w swojej opinii skrytykował wprowadzenie w dokumencie więcej niż jednej, konkretnej definicji sztucznej inteligencji. Jedna z nich określa AI (ang. artificial intelligence) jako „połączenie danych, algorytmów i mocy obliczeniowej”. W ocenie EIOD jest ona niejasna i ma zastosowanie również do innych technologii (np. do big data). Jak stwierdza Inspektor, definicja AI powinna uwzględniać:

  • model decyzyjny,
  • algorytm, który przekłada ten model na kod obliczalny,
  • dane, które ten kod wykorzystuje jako dane wejściowe,
  • środowisko otaczające jego użycie.

Dodatkowo, Biała Księga nie określa kryteriów mających służyć ocenie poziomu „dojrzałości” AI w zastosowaniu do konkretnego obszaru.

EIOD wskazał, że zastosowanie AI powinno w każdym przypadku podlegać dokładnej analizie. Zauważa również, że niektóre zastosowania AI (np. rozpoznawanie twarzy) kłócą się z podstawowymi prawa i wolnościami człowieka, mogąc podważyć ich istotę.

RODO. Wspracie się przydaje!

W ocenie Inspektora należy w pełni efektywnie wykorzystać obowiązujące ramy prawne i z dużą ostrożnością tworzyć nowe. EIOD zgadza się, że w odniesieniu do systemów AI wykorzystywanych w UE sprawą najwyższej wagi jest przestrzeganie przepisów UE przez wszystkie podmioty, niezależnie od tego, czy mają siedzibę w UE, czy nie. Podkreślił, ze europejskie przepisy dotyczące ochrony danych osobowych są neutralne technologicznie i nie stanowią przeszkody w pomyślnym implementowaniu nowych technologii, w szczególności AI. Zdaniem EIOD, RODO zawiera już kluczowe dla „wiarygodności” AI wymagania wobec tej technologii, tj. przejrzystości, identyfikowalności oraz nadzoru człowieka, i ma zastosowanie zarówno do sektora prywatnego, jak i do przetwarzania danych osobowych przez podmioty publiczne.

W zakresie ryzyk wynikających z użycia AI EIOD podkreśla, ze oprócz tych wskazanych w Białej Księdze, również zwiększona inwigilacja i niewłaściwe formy zarządzania (np. poprzez oparte na uczeniu maszynowym klasyfikacje i prognozy, w tym dotyczące zachowania osób, z rozpoznawaniem twarzy lub bez niego) powinny również być uważane za ważne czynniki ryzyka, ze względu na ich potencjalny efekt mrożący dla innych praw podstawowych.

W Białej Księdze zwraca się uwagę na możliwość „uprzedzeń” w związku z uczeniem maszynowym. Dla przykładu, niektóre algorytmy AI, wykorzystywane w celu przewidywania recydywy kryminalnej, mogą wykazywać uprzedzenia płciowe i rasowe, wykazując różne prawdopodobieństwo przewidywania recydywy u kobiet w porównaniu do mężczyzn lub obywateli w porównaniu do cudzoziemców.  EIOD nie zgadza się ze stwierdzeniem, ze w związku z tym że AI „uczy się” podczas działania, nie można zapobiec ani przewidzieć rezultatów tego na etapie projektowania, zaś ryzyko nie będzie wynikało z uchybień w pierwotnej konstrukcji systemu AI, ale raczej z praktycznych skutków korelacji lub wzorców, które dany system AI identyfikuje w dużym zbiorze danych. EIOD uważa, że - przeciwnie - projekt systemu AI powinien uwzględniać potencjalne odchylenia w danych szkoleniowych oraz, w stosownych przypadkach, w danych operacyjnych. Odchylenie może i musi być mierzone i korygowane zarówno podczas działania systemu AI, jak i podczas jego opracowywania.

Lubisz mieć porządek w RODO?
My też!

Prosta aplikacja do utrzymania systemu ochrony danych osobowych i zarządzania rozwiązaniami RODO.
POZNAJ APLIKACJĘ
Europejski Inspektor zwraca uwagę na niedoprecyzowanie w Białej Księdze pojęcia wysokiego ryzyka, co mogłoby zostać zniwelowane poprzez zastosowanie systemu klasyfikacji ryzyka (EIOD uważa, że pojęcie „wysokiego ryzyka” wskazane w Białej Księdze jest zbyt wąskie). Zdaniem organu podejście do określania poziomu ryzyka związanego z wykorzystaniem AI powinno być bardziej niezawodne i dopracowane, jak ma to miejsce w Wytycznych dotyczących oceny skutków dla ochrony danych. EIOD uważa też, że ocena poziomu ryzyka danego zastosowania AI powinna opierać się na szerszym kontekście społecznym, w tym uwzględniać wpływ na proces demokratyczny, praworządność, interes publiczny, potencjalne zwiększenie ogólnej inwigilacji, wpływ na środowisko oraz możliwą koncentrację sił rynkowych. EIOD sugeruje też, że należy zabronić stosowania niektórych scenariuszy zastosowania AI wysokiego ryzyka, jeżeli ich wpływ na jednostki i całe społeczeństwo nie jest jeszcze w pełni zrozumiały. Zdaniem EIOD KE nie odniosła się wyraźnie do zawartej w art. 35 RODO oceny skutków dla ochrony danych. EIOD sugeruje, żeby przyszłe ramy prawne AI określały wymóg oceny oddziaływania na ochronę danych każdego planowanego zastosowania systemów sztucznej inteligencji.

Europejski Inspektor zwraca uwagę na niedoprecyzowanie w BiaZdaniem EIOD, przejrzystość aplikacji AI powinna zagwarantować użytkownikom dostarczenie jasnych informacji w zakresie wykorzystywanych systemów sztucznej inteligencji. Istotne jest też, aby ramy prawne AI pozwała uniknąć nakładania się kompetencji różnych organów nadzorczych i obejmowały mechanizm współpracy pomiędzy nimi.

Na końcu warto wspomnieć, że w odniesieniu do zdalnej identyfikacji biometrycznej EIOD popiera ideę odroczenia wprowadzenia w UE zautomatyzowanego rozpoznawania w przestrzeni publicznej cech ludzkich, nie tylko twarzy, ale także chodu, odcisków palców, DNA, głosu, naciśnięcia klawiszy i innych dane biometrycznych lub sygnałów behawioralnych, aby można było przeprowadzić świadomą i demokratyczną debatę do momentu, w którym UE i wszystkie państwa członkowskie będą miały odpowiednie zabezpieczenia, w tym kompleksowe ramy prawne w celu zagwarantowania proporcjonalności technologii i systemów dla konkretnego przypadku użycia.

Czytaj także:

Najczęstsze błędy przy zawieraniu umów powierzenia
Administratorem Twoich danych jest ODO 24 sp. z o.o. z siedzibą w Warszawie (03-812) przy ul. Kamionkowskiej 45. Twoje dane są przetwarzane w celu świadczenia usługi biuletyn informacyjny na zasadach określonych w Regulaminie ŚUDE. Więcej informacji na temat procesu przetwarzania danych osobowych oraz przysługujących Ci praw uzyskasz w Polityce prywatności.
Potwierdź swój adres e-mail
Wejdź na swoją skrzynkę pocztową, otwórz wiadomość od ODO 24 i potwierdź adres e-mail, klikając w link.
Jeżeli nie znajdziesz naszej wiadomości - sprawdź w folderze SPAM. Aby w przyszłości to się nie powtórzyło oznacz wiadomość jako pożądaną (klikniknij prawym przyciskiem myszy i wybierz “Oznacz jako wiadomość pożądaną”).
Odbierz bezpłatny pakiet 4 poradników
i 4 szkoleń e-learningowych RODO
4x4 - Odbierz bezpłatny pakiet 4 poradników i 4 szkoleń RODO
Administratorem Twoich danych jest ODO 24 sp. z o.o. z siedzibą w Warszawie (03-812) przy ul. Kamionkowskiej 45. Twoje dane są przetwarzane w celu świadczenia usługi biuletyn informacyjny na zasadach określonych w Regulaminie ŚUDE. Więcej informacji na temat procesu przetwarzania danych osobowych oraz przysługujących Ci praw uzyskasz w Polityce prywatności.
Administratorem Twoich danych jest ODO 24 sp. z o. o. >>>