W grudniu 2022 r. została zainicjowana międzynarodowa inicjatywa ochrony praw człowieka przed systemami sztucznej inteligencji. Fundacja wspólnie z ponad 200 międzynarodowymi organizacjami obywatelskimi i akademickimi, w tym EDRi i Access Now, podpisała
wspólne oświadczenie dot. ochrony praw osób przemieszczających się, dotkniętych zastosowaniem sztucznej inteligencji.
W oświadczeniu zawarto apel o zmianę zapisów w AI Act dotyczących rozszerzenia katalogu zabronionych działań i praktyk stosowania systemów i algorytmów sztucznej inteligencji w przestrzeni migracyjnej.
Od 30 stycznia 2023 roku w Parlamencie Europejskim trwają dyskusje na temat wypracowania kompromisowego rozwiązania katalogu zakazanych praktyk stosowania systemów sztucznej inteligencji względem osób (Art. 5 AI Act). Pomimo przedstawionych wcześniej rekomendacji i apelów organizacji obywatelskich w kwestii niedozwolonych praktyk zastosowania AI względem osób przemieszczających się przez granice UE oraz migrantów – ta kwestia nadal nie została uwzględniona w akcie prawnym.
Fundacja, wzmacniając międzynarodowy głos społeczności obywatelskiej, wystosowała list do posłów PE, które biorą udział w pracach nad kompromisowym rozwiązaniem zapisów w AI Act.
W liście wskazano na uwzględnienie następujących postulatów i rozszerzenia katalogu niedozwolonych praktyk stosowania systemów sztucznej inteligencji względem osób:
- Zautomatyzowane systemy profilowania i oceny ryzyka. Te systemy predykcyjne oceniają, czy ludzie stanowią "ryzyko" nielegalnej działalności lub zagrożeń bezpieczeństwa. Takie systemy są z natury dyskryminujące, wstępnie oceniają ludzi na podstawie czynników pozostających poza ich kontrolą lub na podstawie dyskryminujących wniosków opartych na ich cechach osobistych. Takie praktyki naruszają zatem prawo do równości i niedyskryminacji, domniemanie niewinności i godności ludzkiej.
- Predykcyjne systemy analityczne stosowane do przeciwdziałania, ograniczania i zapobiegania migracji. Systemy te generują prognozy dotyczące ryzyka "nielegalnej migracji" i są potencjalnie wykorzystywane do ułatwiania reakcji zapobiegawczych w celu zakazania lub zatrzymania ruchu. Systemy te mogą być wykorzystywane do karnych i obraźliwych polityk kontroli granicznej, które uniemożliwiają ludziom ubieganie się o azyl, takich jak narażanie ich na ryzyko cofania, naruszanie ich praw do swobodnego przemieszczania się i stwarzanie zagrożeń dla prawa do życia, wolności i bezpieczeństwa osoby.
Dodatkowo zwrócono uwagę na zakaz stosowania jakichkolwiek praktyk wobec migrantów i osób przemieszczających się z zastosowaniem:
- Wszystkich systemów rozpoznawania emocji i biometrycznej kategoryzacji;
- Zdalnej identyfikacji biometrycznej zarówno do scenariuszy w czasie rzeczywistym, jak też i po, w tym identyfikację biometryczną na granicach, w ośrodkach detencyjnych i wokół nich.
Iwona Karkliniewska, AI Researcher Fundacja Moje Państwo