O czym mówi Biała Księga?
Zacznijmy od początku – o czym mówi wspomniana Biała Księga? To ogólny raport na temat funkcjonowania sztucznej inteligencji wraz ze wskazaniem pożądanych kierunków przyszłych regulacji, które mają to funkcjonowanie objąć.
Jak wskazano w dokumencie, kluczowe elementy przyszłych regulacji mają stworzyć wyjątkowy „ekosystem zaufania”, zapewniać poszanowanie przepisów UE, w tym przepisów służących ochronie praw podstawowych i praw konsumentów, w szczególności w odniesieniu do wykorzystywanych w UE systemów SI charakteryzujących się wysokim ryzykiem (na marginesie warto wspomnieć, że w swojej opinii na temat Białej Księgi Google wskazuje, że pojęcie wysokiego ryzyka zawarte w dokumencie wymaga dalszego doprecyzowania).
EIOD w swojej opinii skrytykował wprowadzenie w dokumencie więcej niż jednej, konkretnej definicji sztucznej inteligencji. Jedna z nich określa AI (ang. artificial intelligence) jako „połączenie danych, algorytmów i mocy obliczeniowej”. W ocenie EIOD jest ona niejasna i ma zastosowanie również do innych technologii (np. do big data). Jak stwierdza Inspektor, definicja AI powinna uwzględniać:
- model decyzyjny,
- algorytm, który przekłada ten model na kod obliczalny,
- dane, które ten kod wykorzystuje jako dane wejściowe,
- środowisko otaczające jego użycie.
Dodatkowo, Biała Księga nie określa kryteriów mających służyć ocenie poziomu „dojrzałości” AI w zastosowaniu do konkretnego obszaru.
EIOD wskazał, że zastosowanie AI powinno w każdym przypadku podlegać dokładnej analizie. Zauważa również, że niektóre zastosowania AI (np. rozpoznawanie twarzy) kłócą się z podstawowymi prawa i wolnościami człowieka, mogąc podważyć ich istotę.
W ocenie Inspektora należy w pełni efektywnie wykorzystać obowiązujące ramy prawne i z dużą ostrożnością tworzyć nowe. EIOD zgadza się, że w odniesieniu do systemów AI wykorzystywanych w UE sprawą najwyższej wagi jest przestrzeganie przepisów UE przez wszystkie podmioty, niezależnie od tego, czy mają siedzibę w UE, czy nie. Podkreślił, ze europejskie przepisy dotyczące ochrony danych osobowych są neutralne technologicznie i nie stanowią przeszkody w pomyślnym implementowaniu nowych technologii, w szczególności AI. Zdaniem EIOD, RODO zawiera już kluczowe dla „wiarygodności” AI wymagania wobec tej technologii, tj. przejrzystości, identyfikowalności oraz nadzoru człowieka, i ma zastosowanie zarówno do sektora prywatnego, jak i do przetwarzania danych osobowych przez podmioty publiczne.
W zakresie ryzyk wynikających z użycia AI EIOD podkreśla, ze oprócz tych wskazanych w Białej Księdze, również zwiększona inwigilacja i niewłaściwe formy zarządzania (np. poprzez oparte na uczeniu maszynowym klasyfikacje i prognozy, w tym dotyczące zachowania osób, z rozpoznawaniem twarzy lub bez niego) powinny również być uważane za ważne czynniki ryzyka, ze względu na ich potencjalny efekt mrożący dla innych praw podstawowych.
W Białej Księdze zwraca się uwagę na możliwość „uprzedzeń” w związku z uczeniem maszynowym. Dla przykładu, niektóre algorytmy AI, wykorzystywane w celu przewidywania recydywy kryminalnej, mogą wykazywać uprzedzenia płciowe i rasowe, wykazując różne prawdopodobieństwo przewidywania recydywy u kobiet w porównaniu do mężczyzn lub obywateli w porównaniu do cudzoziemców. EIOD nie zgadza się ze stwierdzeniem, ze w związku z tym że AI „uczy się” podczas działania, nie można zapobiec ani przewidzieć rezultatów tego na etapie projektowania, zaś ryzyko nie będzie wynikało z uchybień w pierwotnej konstrukcji systemu AI, ale raczej z praktycznych skutków korelacji lub wzorców, które dany system AI identyfikuje w dużym zbiorze danych. EIOD uważa, że - przeciwnie - projekt systemu AI powinien uwzględniać potencjalne odchylenia w danych szkoleniowych oraz, w stosownych przypadkach, w danych operacyjnych. Odchylenie może i musi być mierzone i korygowane zarówno podczas działania systemu AI, jak i podczas jego opracowywania.
Lubisz mieć porządek w RODO?
My też!
Europejski Inspektor zwraca uwagę na niedoprecyzowanie w BiaZdaniem EIOD, przejrzystość aplikacji AI powinna zagwarantować użytkownikom dostarczenie jasnych informacji w zakresie wykorzystywanych systemów sztucznej inteligencji. Istotne jest też, aby ramy prawne AI pozwała uniknąć nakładania się kompetencji różnych organów nadzorczych i obejmowały mechanizm współpracy pomiędzy nimi.
Na końcu warto wspomnieć, że w odniesieniu do zdalnej identyfikacji biometrycznej EIOD popiera ideę odroczenia wprowadzenia w UE zautomatyzowanego rozpoznawania w przestrzeni publicznej cech ludzkich, nie tylko twarzy, ale także chodu, odcisków palców, DNA, głosu, naciśnięcia klawiszy i innych dane biometrycznych lub sygnałów behawioralnych, aby można było przeprowadzić świadomą i demokratyczną debatę do momentu, w którym UE i wszystkie państwa członkowskie będą miały odpowiednie zabezpieczenia, w tym kompleksowe ramy prawne w celu zagwarantowania proporcjonalności technologii i systemów dla konkretnego przypadku użycia.