EU AI Act: opinia ITRE dla IMCO

Przeczytasz w 8 minut

Podsumowanie opinii Komisji ITRE (Komisja Przemysłu, Badań Naukowych i Energii) przedstawionej Komisji IMCO-LIBE w sprawie harmonizacji przepisów rozporządzenia o sztucznej inteligencji


W trakcie prac nad dostosowaniem przepisów o sztucznej inteligencji w tzw. AI ACT, Komisja ITRE w czerwcu br. przedstawiła opinię dla Komisji IMCO-LIBE na temat propozycji zapisów zmian. 

W przedstawionej opinii zwrócono uwagę na konieczność horyzontalnego podejścia we wdrażaniu systemów sztucznej inteligencji. Wdrażane systemy inteligentnego zarządzania i automatycznego podejmowania decyzji powinny być oparte na wcześniejszej analizie ryzyka. Jest to istotne podejście, które powinno przyczynić się do tworzenia przejrzystych, wiarygodnych i zrozumiałych zasad wdrażania i rozwoju rozwiązań technologicznych z zastosowaniem sztucznej inteligencji. Jednocześnie powinno być zgodne z wartościami europejskimi i wzbudzać zaufanie społeczne. 

W dokumencie zwrócono uwagę na wzmocnienie środków prawnych w tworzeniu piaskownic regulacyjnych, określono konieczność precyzyjnego zdefiniowania systemów sztucznej inteligencji , a także ustanowienie standardów dotyczących dokładności, odporności i cyberbezpieczeństwa, danych i zarządzania danymi. Co ważne, podkreślono, że definicja systemów AI w ustawodawstwie powinna chronić nie tylko prawa przedsiębiorców, ale też obywateli i społeczeństwo obywatelskie, w tym prawa podstawowe człowieka. Zwrócono także uwagę na potrzebę opracowania kodeksu postępowania i działań normalizacyjnych. 

Komisja we wniosku dotyczącym rozporządzenia zaproponowała szereg ważnych propozycji zmian w kwestii wzmocnienia ochrony praw podstawowych osób:

  1. Rozszerzono katalog definicji, m.in. wprowadzono propozycję pojęcia systemów sztucznej inteligencji, rozszerzono pojęcie „poważnego incydentu”, piaskownicy regulacyjnej, a także kompetencji w zakresie sztucznej inteligencji. 

  2. W definicji o systemach sztucznej inteligencji, wprowadzono elementy kluczowych cech systemów, które mogą w wyniku działania sporządzać prognozy, formułować zalecenia oraz podejmować decyzje w środowisku, co ważne, wirtualnym i fizycznym (Art.3, ust.1, pkt1). Oznacza to, że definicja uwzględnia zdolność systemów maszynowych o różnym poziomie autonomii do postrzegania rzeczywistych i wirtualnych środowisk, z którymi wchodzi w interakcję, możliwości tych systemów do modelowania na podstawie przeprowadzonej analizy w sposób zautomatyzowany, a także zdolności tych modelów do formułowania sposobu działań czy wykorzystywania posiadanej informacji (Preambuła, Motyw 6). Cecha autonomiczności funkcjonowania systemu została dodatkowo doprecyzowana. (Art.3, ust.1, pkt. 1a (nowy)). 

  3. Określenie „poważny incydent” oznacza nie tylko każdy incydent, ale też nieprawidłowe działanie systemu sztucznej inteligencji, które mogą lub też mogły w czasie przeszłym prowadzić do jednego z poniższych zdarzeń: naruszenia obowiązków ochrony praw podstawowych przewidzianych w prawie UE (Art.3, ust.1, pkt. 44, lit. b a nowy) lub też stworzyć zagrożenie bezpieczeństwa osoby bądź naruszyć jej prawa podstawowe ((Art.3, ust.1, pkt. 44, lit. a). 

  4. Zaproponowano zapis w odniesieniu do prowadzonych badań naukowych z wykorzystaniem osób, czy też danych osobowych. Dane osobowe zostały określone zgodne z definicją danych osobowych RODO (Art.4 pkt.1). Prowadzone badania lub też badania naukowe w kierunku wdrożenia lub wprowadzenia do obrotu systemów sztucznej inteligencji powinny być etyczne (zgodne z normami etycznymi), a także powinny być stosowane w zakresie początkowo określonego celu badań (Preambuła, Motyw 12). Przy czym na etapie prowadzonych badań, działania te nie mogą naruszać praw podstawowych osób, które biorą udział w procesie prowadzonych prac (Art.2, ust. 5a nowy).

  5. Projektowanie systemów powinno odbywać się z dokładnością i największą starannością, weryfikując i eliminując na każdym etapie możliwe błędy (Preambuła, Motyw 44) oraz zawierać następujące elementy składowe systemu sztucznej inteligencji już na etapie jego walidacji i testowania, a mianowicie określić przeznaczenie i środowisko, w którym system będzie wykorzystywany (Art.10, ust. 2, lit. g a (nowy)), przejrzystość pierwotnego celu gromadzenia danych w systemie (Art.10, ust. 2, lit. aa(nowy)), uwzględniać sam proces gromadzenia danych (Art.10, ust. 2, lit. b), z zastrzeżeniem zapisu dotyczącego możliwości technicznych systemów AI wysokiego ryzyka (Art. 10, ust.1.). Systemy sztucznej inteligencji wysokiego ryzyka powinny być projektowane z zasadą uwzględniającą domyślne bezpieczeństwo (Art.15, ust.1). Jednocześnie należy zwrócić uwagę na możliwość powstania tendencyjności w zbiorach danych tzw. „sprzężenie zwrotne” danych wejściowych względem przyszłych operacji, które mogą mieć negatywny wpływ na zdrowie, bezpieczeństwo i wpływać na praw podstawowe lub prowadzić do dyskryminacji osób (Art.10, ust.2, lit. f), w szczególności kobiety, dzieci i osoby niepełnosprawne.

  6. Zwrócono uwagę na proces normalizacji systemów sztucznej inteligencji oraz ustanowiono wymogi dla dostawców usług i rozwiązań technologicznych (Preambuła, Motyw 61).Działania dostawców usług w kwestii dostosowania technicznego systemów sztucznej inteligencji, powinny również uwzględniać aspekty społeczne, w tym potencjalnego zagrożenia dla praw podstawowych osób stosowanych algorytmów oraz praw demokratycznych społeczeństwa, ze szczególnym uwzględnieniem wpływu ryzyka tych technologii na dzieci. Wdrożenie innowacji i rozwiązań technicznych AI powinny być etycznie uzasadnione (Preambuła, Motyw 71). 

  7. Ważnym aspektem jest zapis dotyczący dysponowania zrozumiałą informacją na temat systemów sztucznej inteligencji przez użytkowników i odbiorców końcowych, wobec których są stosowane te systemy a także umożliwienie tym osobom podejmowania świadomych i niezależnych decyzji w kwestii wykorzystywania względem nich AI (Preambuła, Motyw 46). Przy czym systemy sztucznej inteligencji wysokiego ryzyka powinny ograniczać potencjalne zagrożenia negatywnego wpływu na osoby lub społeczeństwo. Być zgodne z celem zasadniczym, w którym zostały wdrożone oraz przekazywać informację użytkownikom w jasny, przejrzysty, łatwo, zrozumiały i czytelny sposób na odpowiednim poziomie dokładności i solidności (Preambuła, Motyw 49). W kwestii systemów sztucznej inteligencji, określonych w AI Act jako inne, powinny być one etyczne i społecznie odpowiedzialne (Preambuła, Motyw 81). 

Używanie systemów AI w sektorze publicznym ma bezpośrednie skutki na sytuację osób, wobec których te systemy są stosowane. Obywatel powinien mieć świadomość, że decyzja podjęta wobec niego przez publiczną instytucję jest konsekwencją działania określonego systemu AI. Żeby jednostka mogła się chronić przed negatywnymi skutkami działania systemów AI – w pierwszej kolejności – musi wiedzieć, że taki system miał zastosowanie. Z punktu widzenia osoby, której sprawa jest objęta działaniem systemu AI nie ma znaczenia czy określone skutki są efektem używania systemu wysokiego ryzyka czy nie. Dlatego propozycja obowiązku informowania przez sektor publiczny o używaniu systemu AI w procesie podejmowania decyzji wobec określonej osoby dotyczy każdego systemu AI (niezależnie od klasyfikacji systemu na zasadzie ryzyka). 

Ww. obowiązek nie dotyczyłby systemów AI używanych przez sektor publiczny przeznaczonych do czysto pomocniczych czynności administracyjnych, które nie mają wpływu na faktyczne podejmowanie decyzji przez sektor publiczny.

Jednocześnie należałoby wprowadzić odpowiednio prawo jednostek do otrzymania informacji o używaniu przez sektor publiczny systemu AI do podjęcia decyzji wobec osoby, której decyzja dotyczy.

  1. Kolejnym ważnym punktem w opinii Komisji ITRE jest kwestia piaskownic regulacyjnych. Tworzone piaskownice regulacyjne (definicja zaproponowana w Art.3, ust. 1, pkt. 44 a (nowy)) mające na celu wsparcie MŚP i start-upy powinny być zgodne z Kartą Praw Podstawowych Unii Europejskiej oraz rozporządzeniem o ochronie danych osobowych – RODO (Preambuła, Motyw 72). Regulacje wspierające nowatorów sztucznej inteligencji mają wprowadzać odpowiednie zabezpieczenia i wzbudzać zaufanie społeczeństwa przy utworzonych odpowiednich kryteriach i warunkach przez legislację na poziomie krajowym państw członkowskich Unii (Preambuła, Motyw 72a). Przy czym stale powinny być monitorowane i identyfikowane zagrożenia w kwestii zdrowia, bezpieczeństwa i praw podstawowych (Art.53, ust.1).

  2. Zaproponowano zapis dotyczący wymogów zdobywania kompetencji i kształcenia w zakresie sztucznej inteligencji (Art.3, ust.1, pkt. 44 b (nowy)) oraz zwiększeniu działań na rzecz komunikacji ze społeczeństwem i uświadamianiu na temat AI przy wsparciu krajowych i unijnych agencji ochrony danych, ENISA, ośrodków innowacji cyfrowych (Preambuła, Motyw 73). Naszym zdaniem szczególne znaczenie będzie miało edukowanie przedstawicieli sektora publicznego w zakresie sztucznej inteligencji. Taka edukacja mogłaby korzystnie wpłynąć na zaufanie społeczne do systemów AI oraz jakość ich wdrażania, utrzymywania i nadzorowania w sektorze publicznym. Obywatele powinni mieć możliwość zrozumienia jak działają systemy sztucznej inteligencji, które oddziałują na ich sytuację. Urzędnicy z kolei powinni być w stanie wytłumaczyć jak konkretna decyzja względem obywatela jest podejmowana.

  3. Istotną też kwestią w zapisach jest propozycja powołania Komitetu Doradczego ds. Sztucznej Inteligencji (Art.57, ust.3 a(nowy)) w ramach podgrupy Rady, w którego skład powinni wejść nie tylko przedstawiciele przemysłu i środowisk naukowo-badawczych, ale też społeczeństwo obywatelskie, partnerzy społeczni oraz eksperci w dziedzinie praw podstawowych (Preambuła, Motyw 76a nowy). Fundacja wielokrotnie podkreślała, że właściwe wnioski z dyskusji wokół sztucznej inteligencji w sektorze publicznym i w innych sektorach mogą wynikać tylko z rozmów z udziałem wielu interesariuszy z różnych środowisk.

Przedstawiona opinia dot. harmonizacji AI ACT przez Komisję ITRE została przyjęta przez wspólną Komisję IMCO-LIBE. Proponowane zapisy zostały włączone do wypracowanej zbiorczej propozycji zmian w akcie prawnym. Skonsolidowana propozycja w wyniku prac Komisji PE zostanie przedłożona na sesję plenarną Parlamentu Europejskiego jesienią br.

Analizę skonsolidowanych zmian w AI ACT przedstawimy w naszym kolejnym opracowaniu.


Iwona Karkliniewska, AI Researcher w Fundacji Moje Państwo