Algorytmy w sektorze publicznym w Europie Środkowo-Wschodniej

Przeczytasz w 4 minuty

Prace nad AI Act w PE i KE przynoszą wymierne efekty w kwestii etycznego i bardziej przejrzystego wykorzystywania AI. Nadal jest dużo do zrobienia, ale kierunek zmian jest pozytywny. Pisaliśmy o tym w naszym poprzednim tekście.

Technologia w sektorze publicznym powinna działać w przejrzysty sposób. Obywatele powinni wiedzieć w jaki sposób działają publiczne systemy, które oddziałują na ich sytuację. Administracja publiczna w regionie CEE od prawie dziesięciu lat aktywnie wykorzystuje algorytmy AI. Tego rodzaju systemy pojawiają się na w procesach podejmowania decyzji, w ramach funkcjonowania urzędów, a także przy gromadzeniu i przetwarzaniu danych o obywatelach w takich obszarach jak bezpieczeństwo, usługi społeczne czy medycyna. 

Systemy sztucznej inteligencji w administracji publicznej CEE są wdrażane zarówno na poziomie krajowym, jak i lokalnym. Przykładowo, w Polsce systemy AI są elementem wdrażania Strategii Smart City na poziomie regionalnym, pojawiają się także w ramach organizowanych konkursów Programu TechGov. 

W przypadku stosowania systemów wsparcia i dostępu do informacji działanie chatBota czy asystenta może być pomocne w skróceniu czasu otrzymania usługi lub uzyskania dostępu do informacji. Technologia może uczynić sektor publiczny bardziej efektywnym. Dotychczasowe przykłady pokazują, że często algorytmy stosowane w sektorze publicznym budzą kontrowersje (przykładem może być SyRi ­– Systeem Risico Indicatie w Holandii), a czasem są zupełnie wycofywane z użytku (tak było w przypadku systemu profilowania bezrobotnych używanego przez Ministerstwo Rodziny i Polityki Społecznej wspólnie z Powiatowymi Urzędami Pracy). 

Estonia jest jednym z wiodących krajów pod względem zastosowania i wykorzystania algorytmów AI w administracji publicznej. W 2020 roku estoński rząd zadeklarował wdrożenie 50 systemów sztucznej inteligencji w funkcjonowaniu administracji publicznej. System KrattAI ma za zadanie zintegrować dostępne e-usługi, co wydaje się być komfortowe dla obywateli, ale może także prowadzić do zagrożeń w związku ze znaczną koncentracją prze władze publiczne informacji o obywatelu. Wiele zależy od tego jak proces wdrażania i kontrolowania usługi (w całym cyklu jej życia) zostanie zaprojektowany i wykonany oraz czy odpowiednio uwzględni się w tym procesie ryzyka, które mogą się pojawić w kontekście praw obywateli (np. naruszenia prywatności, bezpodstawne łączenie danych z różnych źródeł i pozyskiwanie nowych informacji na tej podstawie).

Zwiększenie bezpieczeństwa społecznego i ochrony praw człowieka doprowadziło do dyskusji o ramach prawnych funkcjonowania systemów sztucznej inteligencji w poszanowaniu karty praw podstawowych i obywatelskich. (art. 34 Karta Praw Podstawowych UE, art. 12, 13 i 14 Europejska Karta Społeczna), a także dyskusji o monitoringu administracji publicznej w zakresie wykorzystania systemów i algorytmów AI. 

Wiele działań w wykorzystywanych algorytmach i systemach jest nadal mało przejrzyste, co do celu i zasadności wykorzystania oraz dalszego przetwarzania danych osobowych bez świadomej i jasnej zgody ze strony osoby, której dane dotyczą (art.4 i art. 4 RODO). Zasadne jest wskazanie przejrzystości wykorzystania AI w przypadku systemów opartych na algorytmach maszyn uczących się oraz przetwarzania języka naturalnego (NLP). Dobrym przykładem wykorzystywania danych wrażliwych na dużą skalę są wdrożone systemy monitoringu i badania natężenia ruchu w Poznaniu i Gdyni

W 2021 roku przez KE zostały wydane wytyczne w sprawie wykorzystania danych biometrycznych (rozpoznawanie twarzy) w przestrzeni publicznej. Na stronie UODO można znaleźć polską wersję wytycznych. Dostosowanie do wytycznych i ram przetwarzania danych przez monitoring nie jest obecnie znane w regionie CEE.

W opublikowanym raporcie Komitetu PE AIDA (specjalnie powołany Komitet ds. sztucznej Inteligencji), wypracowane stanowisko Komitetów IMCO i LIBE jasno sprecyzowało obszary wykorzystywanych danych wrażliwych (bezpieczeństwo, zdrowie) oraz katalog zakazanych do wykorzystywania danych biometrycznych. Zgodnie ze stanowiskiem osoby powinny być informowane o wykorzystywanych danych, a gromadzone dane powinny być ograniczone w przetwarzaniu lub przetwarzane w stopniu o dużej anonimizacji.

W kontekście AI w sektorze publicznym korzystne byłoby:
  • zdefiniowanie obszarów, w których można stosować algorytmy AI;
  • publiczne udostępnienie informacji w jednej dostępnej bazie na temat wykorzystywanych i planowanych do wykorzystania algorytmów AI;
  • precyzyjne określenie sztucznej inteligencji (w wielu przypadkach usługi publiczne są nazywane naprzemiennie AI lub internet rzeczy (IoT));
  • przejrzyste wykorzystanie systemów sztucznej inteligencji na każdym etapie wdrażania narzędzi cyfrowych (z jednej strony dysponowanie informacjami na temat działania systemu, z drugiej – proaktywne informowanie obywateli) 
  • tworzenie katalogu praktyk niedozwolonych z wykorzystaniem algorytmów AI, mogących mieć negatywny wpływ na prawa podstawowe obywatela.