EU AI Act: opinia CULT dla IMCO

Przeczytasz w 5 minut

Podsumowanie opinii Komisji CULT (Komisja Kultury i Edukacji) dla Komisji IMCO-LIBE w sprawie harmonizacji przepisów rozporządzenia o sztucznej inteligencji

Komisja CULT w trakcie prac nad harmonizacją przepisów dotyczących systemów sztucznej inteligencji w rozporządzeniu tzw. AI ACT przedstawiła sprawozdanie z proponowanymi zmianami. We wniosku Komisja zwróciła uwagę i wskazała na konieczność rozszerzenia katalogu obszarów zastosowań technologii sztucznej inteligencji wysokiego ryzyka, wskazanych w załączniku III w tzw. AI ACT i włączeniu do listy obszarów edukacja, media i kultura. Sprawozdawca zaproponował również rozszerzenie zakazu oceny punktowej zachowania społecznego, które są wykorzystywane przez podmioty prywatne i podmioty publiczne. Wskazano na włączenie zapisu dotyczącego zakazu stosowania technologii zdalnej identyfikacji biometrycznej w przestrzeni publicznej (rezolucja Parlamentu Europejskiego z 6 października 2021 r. w sprawie sztucznej inteligencji w prawie karnym i jej wykorzystania przez policję i organy wymiaru sprawiedliwości). 

W proponowanych zmianach zapisów w AI ACT Komisja CULT zwraca uwagę na kwestie:

  1. Systemy sztucznej inteligencji powinny być oparte na zasadach etycznych (Preambuła, Motyw 1, Motyw 3 i Motyw 13), mieć podejście humanocentryczne (Preambuła, Motyw 5), służyć realizacji celów interesu publicznego, demokracji, praworządności i środowisku przy jednoczesnej minimalizacji dyskryminacji społecznej i ograniczaniu negatywnego wpływu w wyniku stosowania algorytmów AI/ADM (Preambuła, Motyw 1). Przy czym, systemy sztucznej inteligencji powinny być bezpieczne i wiarygodne (Preambuła, Motyw 2), chronić dane osób i prawo do prywatności (Preambuła, Motyw 4). Funkcjonowanie systemów AI należy opierać na zasadach praw podstawowych (Preambuła, Motyw 5) oraz uwzględniać prawa i zasady cyfrowe w przyjętej deklaracji z 26 stycznia 2022 r. Europejska deklaracja praw i zasad cyfrowych. Zaś technologie, które wchodzą w fizyczną interakcję z osobami, w szczególności z dziećmi, osobami starszymi lub osobami z grup wrażliwych, powinny w odpowiednio jasny i wyraźny (Art. 52, ustęp 3, akapit 1) sposób informować o takiej interakcji oraz zawierać stosowane sformułowania i zastrzeżenia prawne (Preambuła, Motyw 70, Art. 52, ustęp 3b (nowy0). 

  2. Określono wymóg okresowej półrocznej oceny systemów sztucznej inteligencji wysokiego ryzyka, które zostały ujęte w Załączniku III AI ACT, przy zaangażowaniu ekspertów i przedstawicieli różnych dziedzin, w tym ekspertów w dziedzinie etyki, specjalistów ds. zdrowia psychicznego (Preambuła, Motyw 86 a (nowy)), a także wymóg przejrzystości danych systemów w procesie całego cyklu funkcjonowania systemu (Art. 1, akapit 1, lit. c). 

  3. Zaproponowano włączenie zapisu uszczegóławiającego pojęcie wiarygodności sztucznej inteligencji (Art. 4a), który powinien być stosowany względem wszystkich wprowadzonych do obrotu i użytku systemów sztucznej inteligencji zgodnych z Kartą praw podstawowych Unii Europejskiej i spełniających następujące zasady:

  4. Zasada zgodności z prawem, sprawiedliwości i przejrzystości;

  5. Zasada sprawczości i nadzoru ze strony człowieka;

  6. Zasada bezpieczeństwa, dokładności, niezawodności i solidności;

  7. Zasada prywatności;

  8. Zasada zarządzania danymi;

  9. Zasada niedyskryminacji i różnorodności;

  10. Zasada identyfikowalności, rozliczalności i możliwości kontroli;

  11. Zasada odpowiedzialności społecznej;

  12. Wskazano na aspekty funkcjonowania systemów identyfikacji biometrycznej, innych niż zdalna, wykorzystywanych w przestrzeni publicznej, w tym przestrzeni realnej i wirtualnej (Preambuła, Motyw 9), miejscu pracy oraz w instytucjach edukacyjnych. Placówki edukacyjne, szkoleniowe i kształcące, które są wpisane do katalogu obszarów sztucznej inteligencji o wysokim ryzyku ze względu na wykorzystanie technologii AI w procesie kształcenia powinny być rozszerzone o działania systemu AI monitorującego niedozwolone zachowania uczniów (Preambuła, Motyw 34a (nowy), Zał. III, akapit 1, pkt. 3, lit b b (nowy)). Określono też, że systemy sztucznej inteligencji przeznaczone do monitorowania zachowania i emocji uczniów podczas testów powinny być uznane jako systemy wysokiego ryzyka, ponieważ mogą naruszać prawo do prywatności i ochrony danych (Preambuła, Motyw 35).

  13. W kwestii przetwarzania i zarządzania danymi, które są wykorzystywane w systemach sztucznej inteligencji o wysokim ryzyku na podstawie zbiorów danych treningowych lub walidacyjnych (Art.10), powinny one być analizowane nie tylko pod kątem ewentualnej tendencyjności, ale też odchyleń, które mogą mieć wpływ na bezpieczeństwo, zdrowie lub prowadzić do dyskryminacji osób (Art. 10, ustęp 2, lit. f). Projektowanie systemu wysokiego ryzyka należy opracowywać w ten sposób, by jego funkcjonowanie było zrozumiałe i łatwe, a interpretacja wyników i wykorzystanie informacji wykorzystywane się na podstawie świadomych decyzji (Art. 13, ustęp 1).

  14. Zarekomendowano wprowadzenie i rozszerzenie pojęcia kompetencji w zakresie sztucznej inteligencji, które powinno odnosić się do umiejętności, wiedzy i zrozumienia wykorzystywania systemów sztucznej inteligencji zarówno przez operatorów, użytkowników, jak też i obywateli (Preambuła, Motyw 14b, Art. 3, akapit 1, pkt. 44 d (nowy)). W celu zwiększenia kompetencji niezbędny jest rozwój kształcenia i szkolenia w tym obszarze, a także dążenie do zwiększenia umiejętności cyfrowych pracowników (Preambuła, Motyw 5a). Katalog definicji „instytucje kształcenia i szkolenia” włącza w sobie wszystkie placówki i instytucje kształcące i świadczące usługi szkoleniowe niezależnie od wieku osób (Art. 3, akt. 1, pkt. 44 a (nowy)). Budowanie kompetencji w zakresie AI przyczyni się do realizacji wymogów wiarygodności systemów (Art. 4a). 

  15. Fundacja w szczególności za wartościową uważa powyższą rekomendację Komisji CULT dotyczącą wprowadzenia i rozszerzenia pojęcia kompetencji w zakresie sztucznej inteligencji. Fundacja w kontekście sektora publicznego postuluje zapewnienie urzędnikom edukacji w zakresie postępowania z systemami AI/ADM

Uważamy, że w każdej jednostce publicznej używającej systemów AI/ADM w sposób wpływający na sytuację obywateli, powinna być chociaż jedna osoba, która byłaby regularnie edukowana w tematyce AI/ADM. Taka osoba pełniłaby funkcję punktu kontaktowego w razie wątpliwości innych urzędników czy obywateli, co do działania systemów. Dzięki temu możliwe byłoby zapewnienie bardziej efektywnego nadzoru przy wprowadzaniu, utrzymywaniu i audytowaniu systemów AI/ADM.

Przedstawiona opinia dot. w AI ACT została przyjęta przez Komisję IMCO-LIBE, a propozycje zapisów zmian zostały włączone do wypracowanego skonsolidowanego aktu prawnego. Propozycje zmian w AI ACT zostaną przedstawione do głosowania w PE jesienią br. 

Analizę skonsolidowanych zmian w AI ACT przedstawimy w naszym kolejnym opracowaniu.