Regulacja Sztucznej Inteligencji. Pierwszy komentarz

Krzysztof Izdebski

Krzysztof Izdebski

21 kwietnia 2021

Przeczytasz w 4 minuty

Jest! Długo oczekiwana propozycja przepisów mających uregulować sztuczną inteligencję (SI) została oficjalnie upubliczniona przez Komisję Europejską. Nie ma co ukrywać, że już wcześniej mieliśmy (i nie tylko my zresztą) okazję zapoznać się z dokumentami, które wyciekły z Komisji, jednak teraz, kiedy wszystko jest już oficjalne, zrobi się naprawdę ciekawie. Nie ulega wątpliwości, że ten kawałek (czy raczej należałoby napisać kawał) regulacji, w którego tworzeniu będą jeszcze brały udział urzędnicy i urzędniczki, przedstawiciele i przedstawicielki biznesu, organizacje społeczne i wiele innych osób , będzie miał gigantyczny wpływ nie tylko na kraje członkowskie Unii Europejskiej, ale także na inne, które pracują nad przepisami dotyczącymi sztucznej inteligencji. 
W tym tekście chcemy przybliżyć generalny wydźwięk dokumentu. O konkretnych przepisach, które zawiera, będziemy pisać w nadchodzących tygodniach.
Podstawową zaletą dokumentu jest to, że za główny punkt odniesienia stawia człowieka. Wyrażnie widać, że autorzy/autorki zdają sobie sprawę z ryzyk, które rozwój SI niesie dla praw człowieka. Z drugiej jednak strony, w przepisach nie uwzględniono adekwatnych narzędzi, które umożliwiałyby ścisłą kontrolę władz publicznych nad implementacją sztucznej inteligencji. A naszym zdaniem powinny się tam znaleźć w znacznie szerszym zakresie. Nie zmienia to jednak faktu, że bardzo doceniamy rozszerzenie roli i możliwości władz publicznych w stosunku do tego, co było zapisane w dokumentach, który wyciekły wcześniej z Komisji. 
W dokumencie pojawia się również zakaz korzystania z części rozwiązań technologicznych. Dotyczy to między innymi stosowania przez wymiar sprawiedliwości i siły porządkowe systemu biometrycznego rozpoznawania osób w przestrzeni publicznej. Są pewne wyjątki - np. poszukiwanie zaginionego dziecka. Komisja Europejska bardzo mocno oparła dokument na pojęciu “systemów wysokiego ryzyka”. Próba jego zdefiniowania pojawia się już w preambule. Dla przykładu “Niektóre systemy oparte na SI, dedykowane dla wymiaru sprawiedliwości albo wpływające na proces demokratyczny powinny być sklasyfikowane jako wysokiego ryzyka, ze względu na ich potencjalnie znaczący wpływ na demokrację, praworządność, wolność jednostek oraz prawo do skutecznego środka odwoławczego i uczciwego procesu. Dotyczy to zwłaszcza tych ryzyk, które dotyczą dyskryminacji, braku przejrzystości lub mogą być źródłem potencjalnych błędów. Należy zakwalifikować jako wysokiego ryzyka przede wszystkim te systemy, które są dedykowane urzędnikom wymiaru sprawiedliwości i pomagają im interpretować fakty oraz przepisy prawa, a także odnosić jedne do drugich.” Więcej przykładów systemów wysokiego ryzyka pojawia się w załączniku 2. dokumentu z adnotacją, że Komisja może w przyszłości jeszcze rozwijać ich listę. Uważamy, że specjalna lista jest o tyle chybiona, że wszystkie systemy oparte na SI, które są wdrażane w instytucjach publicznych i mogą potencjalnie wpływać na prawa i obowiązki obywateli/ek są wysokiego ryzyka. 
Autorzy/rki dokumentu zwracają uwagę, że szkody, które mogą być wyrządzone przez systemy oparte na sztucznej inteligencji “mogą dotyczyć zarówno indywidualnych jednostek jak i całego społeczeństwa ”. Jest to całkiem trafna odpowiedź na często zgłaszane zagrożenie - ryzyka związane z wykorzystaniem systemów opartych na SI mogą być znaczące nie tylko dla jednostek, ale i społeczności. 
W przypadku, w którym dany system zostanie oceniony jako wysokiego ryzyka, jego dostawca będzie zobowiązany przygotować proces zarządzania ryzykiem oraz będzie odpowiedzialny za przygotowanie oceny zgodności (sprawdzającej czy system spełnia odpowiednie, wynikające z przepisów, wymagania). Wszystko pięknie, ale czy nie ma w tym czasem zbyt dużo samoregulacji dostawców? Podkreślamy jednak, że już samo rozpoczęcie pracy nad wyposażeniem władz publicznych w konkretne narzędzia pozwalające monitorować i nadzorować ten proces uważamy za dobry kierunek działań. 
Z dużym entuzjazmem przywitaliśmy zawartą w preambulę deklarację, że “pewien poziom przejrzystości systemów wysokiego ryzyka powinien być wymagany. Użytkownicy powinni mieć możliwość zrozumienia i kontrolowania tego, jak te systemy działają. Powinna być do nich dołączona odpowiednia dokumentacja oraz instrukcja obsługi zawierająca zwięzłe, jasne i, na ile to możliwe, nietechniczne informacje”. Jakkolwiek uważamy, że określenie “pewien poziom” jest zbyt ogólne, samo wprowadzenie przejrzystości uważamy za krok w dobrym kierunku, zwłaszcza, że Komisja uznała, że również inne przykłady systemów opartych na SI powinny zawierać większy pierwiastek przejrzystości.
Informacje na temat systemów wysokiego ryzyka mają być umieszczane w specjalnej bazie danych, która będzie rozwijana przez Komisję i będzie służyła jako rejestr publiczny wybranych systemów opartych na AI. Ponieważ ta koncepcja bezpośrednio jest związana z tym, proponowaliśmy już w 2019 roku, to już za tydzień opublikujemy szerszą analizę tego zagadnienia. Będzie to pierwsza odsłona naszego nowego cyklu “Sztuczna inteligencja w odcinkach. Pogłębiona analiza wybranych propozycji regulacji SI.”