AI Act powinien bronić prawa podstawowe uchodźców oraz osób przemieszczających się

Przeczytasz w 2 minuty

W grudniu 2022 r. została zainicjowana międzynarodowa inicjatywa ochrony praw człowieka przed systemami sztucznej inteligencji. Fundacja wspólnie z ponad 200 międzynarodowymi organizacjami obywatelskimi i akademickimi, w tym EDRi i Access Now, podpisała wspólne oświadczenie dot. ochrony praw osób przemieszczających się, dotkniętych zastosowaniem sztucznej inteligencji. 

W oświadczeniu zawarto apel o zmianę zapisów w AI Act dotyczących rozszerzenia katalogu zabronionych działań i praktyk stosowania systemów i algorytmów sztucznej inteligencji w przestrzeni migracyjnej.

Od 30 stycznia 2023 roku w Parlamencie Europejskim trwają dyskusje na temat wypracowania kompromisowego rozwiązania katalogu zakazanych praktyk stosowania systemów sztucznej inteligencji względem osób (Art. 5 AI Act). Pomimo przedstawionych wcześniej rekomendacji i apelów organizacji obywatelskich w kwestii niedozwolonych praktyk zastosowania AI względem osób przemieszczających się przez granice UE oraz migrantów – ta kwestia nadal nie została uwzględniona w akcie prawnym.

Fundacja, wzmacniając międzynarodowy głos społeczności obywatelskiej, wystosowała list do posłów PE, które biorą udział w pracach nad kompromisowym rozwiązaniem zapisów w AI Act.

W liście wskazano na uwzględnienie następujących postulatów i rozszerzenia katalogu niedozwolonych praktyk stosowania systemów sztucznej inteligencji względem osób:
  • Zautomatyzowane systemy profilowania i oceny ryzyka. Te systemy predykcyjne oceniają, czy ludzie stanowią "ryzyko" nielegalnej działalności lub zagrożeń bezpieczeństwa. Takie systemy są z natury dyskryminujące, wstępnie oceniają ludzi na podstawie czynników pozostających poza ich kontrolą lub na podstawie dyskryminujących wniosków opartych na ich cechach osobistych. Takie praktyki naruszają zatem prawo do równości i niedyskryminacji, domniemanie niewinności i godności ludzkiej.
  • Predykcyjne systemy analityczne stosowane do przeciwdziałania, ograniczania i zapobiegania migracji. Systemy te generują prognozy dotyczące ryzyka "nielegalnej migracji" i są potencjalnie wykorzystywane do ułatwiania reakcji zapobiegawczych w celu zakazania lub zatrzymania ruchu. Systemy te mogą być wykorzystywane do karnych i obraźliwych polityk kontroli granicznej, które uniemożliwiają ludziom ubieganie się o azyl, takich jak narażanie ich na ryzyko cofania, naruszanie ich praw do swobodnego przemieszczania się i stwarzanie zagrożeń dla prawa do życia, wolności i bezpieczeństwa osoby.

Dodatkowo zwrócono uwagę na zakaz stosowania jakichkolwiek praktyk wobec migrantów i osób przemieszczających się z zastosowaniem:
  • Wszystkich systemów rozpoznawania emocji i biometrycznej kategoryzacji;
  • Zdalnej identyfikacji biometrycznej zarówno do scenariuszy w czasie rzeczywistym, jak też i po, w tym identyfikację biometryczną na granicach, w ośrodkach detencyjnych i wokół nich.

Iwona Karkliniewska, AI Researcher Fundacja Moje Państwo