Prace nad AI Act w PE i KE przynoszą wymierne efekty w kwestii etycznego i bardziej przejrzystego wykorzystywania AI. Nadal jest dużo do zrobienia, ale kierunek zmian jest pozytywny. Pisaliśmy o tym w naszym poprzednim
tekście.
Technologia w sektorze publicznym powinna działać w przejrzysty sposób. Obywatele powinni wiedzieć w jaki sposób działają publiczne systemy, które oddziałują na ich sytuację. Administracja publiczna w regionie CEE od prawie dziesięciu lat aktywnie wykorzystuje algorytmy AI. Tego rodzaju systemy pojawiają się na w procesach podejmowania decyzji, w ramach funkcjonowania urzędów, a także przy gromadzeniu i przetwarzaniu danych o obywatelach w takich obszarach jak bezpieczeństwo, usługi społeczne czy medycyna.
Systemy sztucznej inteligencji w administracji publicznej CEE są wdrażane zarówno na poziomie krajowym, jak i lokalnym. Przykładowo, w Polsce systemy AI są elementem wdrażania Strategii Smart City na poziomie regionalnym, pojawiają się także w ramach organizowanych konkursów Programu TechGov.
W przypadku stosowania systemów wsparcia i dostępu do informacji działanie chatBota czy asystenta może być pomocne w skróceniu czasu otrzymania usługi lub uzyskania dostępu do informacji. Technologia może uczynić sektor publiczny bardziej efektywnym. Dotychczasowe przykłady pokazują, że często algorytmy stosowane w sektorze publicznym budzą kontrowersje (przykładem może być SyRi – Systeem Risico Indicatie w Holandii), a czasem są zupełnie wycofywane z użytku (tak było w przypadku systemu profilowania bezrobotnych używanego przez Ministerstwo Rodziny i Polityki Społecznej wspólnie z Powiatowymi Urzędami Pracy).
Estonia jest jednym z wiodących krajów pod względem zastosowania i wykorzystania algorytmów AI w administracji publicznej. W 2020 roku estoński rząd zadeklarował wdrożenie 50 systemów sztucznej inteligencji w funkcjonowaniu administracji publicznej. System KrattAI ma za zadanie zintegrować dostępne e-usługi, co wydaje się być komfortowe dla obywateli, ale może także prowadzić do zagrożeń w związku ze znaczną koncentracją prze władze publiczne informacji o obywatelu. Wiele zależy od tego jak proces wdrażania i kontrolowania usługi (w całym cyklu jej życia) zostanie zaprojektowany i wykonany oraz czy odpowiednio uwzględni się w tym procesie ryzyka, które mogą się pojawić w kontekście praw obywateli (np. naruszenia prywatności, bezpodstawne łączenie danych z różnych źródeł i pozyskiwanie nowych informacji na tej podstawie).
Zwiększenie bezpieczeństwa społecznego i ochrony praw człowieka doprowadziło do dyskusji o ramach prawnych funkcjonowania systemów sztucznej inteligencji w poszanowaniu karty praw podstawowych i obywatelskich. (art. 34
Karta Praw Podstawowych UE, art. 12, 13 i 14
Europejska Karta Społeczna), a także dyskusji o monitoringu administracji publicznej w zakresie wykorzystania systemów i algorytmów AI.
Wiele działań w wykorzystywanych algorytmach i systemach jest nadal mało przejrzyste, co do celu i zasadności wykorzystania oraz dalszego przetwarzania danych osobowych bez świadomej i jasnej zgody ze strony osoby, której dane dotyczą (art.4 i art. 4 RODO). Zasadne jest wskazanie przejrzystości wykorzystania AI w przypadku systemów opartych na algorytmach maszyn uczących się oraz przetwarzania języka naturalnego (NLP). Dobrym przykładem wykorzystywania danych wrażliwych na dużą skalę są wdrożone systemy monitoringu i badania natężenia ruchu w
Poznaniu i
Gdyni.
W 2021 roku przez KE zostały wydane
wytyczne w sprawie wykorzystania danych biometrycznych (rozpoznawanie twarzy) w przestrzeni publicznej. Na stronie UODO można znaleźć polską wersję
wytycznych. Dostosowanie do wytycznych i ram przetwarzania danych przez monitoring nie jest obecnie znane w regionie CEE.
W opublikowanym raporcie Komitetu PE AIDA (specjalnie powołany Komitet ds. sztucznej Inteligencji), wypracowane
stanowisko Komitetów IMCO i LIBE jasno sprecyzowało obszary wykorzystywanych danych wrażliwych (bezpieczeństwo, zdrowie) oraz katalog zakazanych do wykorzystywania danych biometrycznych. Zgodnie ze stanowiskiem osoby powinny być informowane o wykorzystywanych danych, a gromadzone dane powinny być ograniczone w przetwarzaniu lub przetwarzane w stopniu o dużej anonimizacji.
W kontekście AI w sektorze publicznym korzystne byłoby:
- zdefiniowanie obszarów, w których można stosować algorytmy AI;
- publiczne udostępnienie informacji w jednej dostępnej bazie na temat wykorzystywanych i planowanych do wykorzystania algorytmów AI;
- precyzyjne określenie sztucznej inteligencji (w wielu przypadkach usługi publiczne są nazywane naprzemiennie AI lub internet rzeczy (IoT));
- przejrzyste wykorzystanie systemów sztucznej inteligencji na każdym etapie wdrażania narzędzi cyfrowych (z jednej strony dysponowanie informacjami na temat działania systemu, z drugiej – proaktywne informowanie obywateli)
- tworzenie katalogu praktyk niedozwolonych z wykorzystaniem algorytmów AI, mogących mieć negatywny wpływ na prawa podstawowe obywatela.