Czy UE powinna regulować systemy sztucznej inteligencji ogólnego przeznaczenia?

Przeczytasz w 6 minut

13 września 2022 r. odbyła się dyskusja pt. „Czy UE powinna regulować systemy sztucznej inteligencji ogólnego przeznaczenia?” (ang. Should the EU Regulate General-Purpose AI Systems?). Webinar został zorganizowany przez Centrum Innowacji Danych (ang. Center for Data Innovation). Think – tank skupia się na zagadnieniach związanych z obszarem zarządzania danymi oraz aspektami rozwoju polityki sztucznej inteligencji w UE i na całym świecie.

W panelu dyskusyjnym wzięli udział:

  • Kai Zenner, Dyrektor Biura i Doradca ds. Polityki Cyfrowej Posła do PE Axel Vossa, 
  • Alexandra Belias – Manager ds. Polityki Publicznej, DeepMind,
  • Anthony Aguirre, Wice- Prezydent ds. Strategii i Poliyki, Intytut Przyszłość życia (Future of Life Institute),
  • Andrea Miotti, Kierownik ds. Zarządzania i Polityki AI, Conjecture,
  • Irene Solaiman, Dyrektor ds. Polityki , Hugging Face,
  • Hodan Omaar, Starszy Analityk ds. Polityki, Center for Data Innovation (moderator).

Francja podczas prezydencji w Unii Europejskiej zaproponowała rozszerzenie obszaru regulacji prawnej dla systemów wysokiego ryzyka sztucznej inteligencji, a także wprowadziła uregulowanie nowego pojęcia – systemy sztucznej inteligencji ogólnego przeznaczenia (General Purpose AI Systems). Takie systemy mogą wykonywać wiele zadań w procesie przetwarzania danych, a także stanowią element składowy, a w wielu przypadkach jest to system bazowy, na którym zbudowano wiele powszechnie używanych aplikacji i oprogramowań wprowadzonych do użytkowania. Są to systemy, które do obrotu na rynku zostały wprowadzone w celu wsparcia i wykonywania różnych działań i aktywności, m.in. do rozpoznawania obrazów i głosu, do tłumaczenia, wykrywania różnych wzorców. Zaproponowane zapisy w AI ACT wywołały szeroką dyskusję, w której są zwolennicy regulacji prawnej danych systemów, ale też są przeciwnicy, którzy twierdzą, że wprowadzenie regulacji prawnych tych systemów może przynieść więcej szkody. 

Podczas spotkania uczestnicy omówili następujące zagadnienia związane z systemami AI ogólnego przeznaczenia:

  1. Charakterystyka systemów sztucznej inteligencji ogólnego przeznaczenia i dlaczego UE chce regulacji prawnych w zakresie funkcjonowania tych systemów?
  2. W jaki sposób UE powinno prawnie uregulować wykorzystywanie danych systemów?
  3. Rekomendacje dla decydentów w obszarze polityki sztucznej inteligencji w zakresie wykorzystywania systemów AI ogólnego przeznaczenia.

  1. Dyskusja rozpoczęła się od wyjaśnienia, czym właściwe są systemy sztucznej inteligencji ogólnego przeznaczenia. Co ciekawe, z przedstawionych opisów tych systemów w kontekście technologicznym, możemy znaleźć wiele różnych określeń, jak np. system podstawowy, model podstawowy albo model językowy (base model, foundation model, language model). Dotychczas nie było szerokiej dyskusji społecznej i politycznej na temat systemów AI ogólnego przeznaczenia oraz propozycji regulacji prawnej tych systemów m.in. w AI ACT. Jest to system, który ma wiele możliwości. Charakteryzuje się przede wszystkim dużym potencjałem rozwoju. Może rozpoznawać mowę, grać w szachy, zdawać egzaminy, rozwiązywać algorytmiczne zadania lub stanowić element kodu bardziej złożonych systemów sztucznej inteligencji. Jego działanie może być porównywane do intelektu człowieka. W swojej naturze, dany system może wykonywać wiele czynności jednocześnie i jest klasyfikowany jako system uczący się (learning system). Algorytmy danego systemu stanowią w wielu przypadkach podstawę programów komputerowych i wielu aplikacji mających powszechnie zastosowanie. Z perspektywy ekonomicznej, dane rozwiązane może przynieść wiele korzyści i innowacyjnych rozwiązań. Jednak w aspekcie społecznym wymaga zwrócenia uwagi na skalę wykorzystywania tego systemu, wielkość systemu, właściwości oraz parametry techniczne, a także potencjalne możliwości dalszego rozwoju na zasadzie maszyny uczącej się. Co więcej, potencjał zastosowania systemów AI ogólnego przeznaczenia napotyka wiele trudności w sprecyzowaniu i uregulowaniu obszarów jego wykorzystywania.
  2. Należy określić przede wszystkim podstawowe kwestie związane z użytkowaniem tych systemów pod względem ich celu, zakresu, bezpieczeństwa, dokładności, stopnia zgodności, oraz podziału odpowiedzialności pomiędzy producentów oraz użytkowników. Dodatkowo należy też wprowadzić odpowiednie wymagania i ograniczenia dostępności użytkowania tych systemów. Przy czym, systemy AI ogólnego przeznaczenia powinny być przejrzyste (udostępnione kody i algorytmy działania), posiadać dokładnie opracowaną dokumentację, a także przedstawiać ocenę ryzyka i możliwe skutki działań już na etapie programowania i testowania tych systemów. Dyskusja w PE na temat systemów AI ogólnego przeznaczenia jest na bardzo początkowym etapie, wymaga włączenia szerszego grona przedstawicieli grup społecznych oraz wypracowania odpowiedniego kompromisowego rozwiązania. Jest wiele głosów i nacisku ze strony sektora BigTech o zawężenie lub też usunięcie zaproponowanych definicji na temat AI. Trwające obecnie prace nad propozycją definicji sztucznej inteligencji w AI ACT w Komisjach PE nie odzwierciedlają w całości możliwości zastosowania tych systemów. Dlatego definicja wymaga zmian i doprecyzowania, a przede wszystkim rozróżnienia specyfiki działania dedykowanych (wyspecjalizowanych) systemów od tych ogólnego przeznaczenia, jak również włączenie elementu nadzoru tego systemu ze strony osoby fizycznej. W trakcie dyskusji na temat wprowadzonych rozwiązań prawnych w AI ACT, Kai Zenner podkreślił, że zaproponowane zapisy dot. wymogów dla systemów wysokiego ryzyka AI (art. 8, pkt. 2, 15), kwestie związane z oceną ryzyka tych systemów (art. 9), a także uwzględniony czynnik ludzki (art. 14) nie może mieć bezpośredniego zastosowania do systemów AI ogólnego przeznaczenia. Zatem, wydaje się zasadnym, dodanie odrębnego punktu regulującego kwestie zastosowania systemów AI ogólnego przeznaczenia poprzez zwiększenie odpowiedzialności (nowy art. 23 pkt. 8) lub też określenie wymogów i obowiązków w kwestii wprowadzania danych systemów do obrotu (nowy art. 55a). Zaproponowane zmiany wymagają dalszych dyskusji i wypracowanie odpowiedniego rozwiązania uregulowania prawnego, uwzględniającego aspekty społeczne i etyczne wykorzystania systemów AI. 
  3. Systemy AI ogólnego przeznaczenia powinny być przede wszystkich bezpieczne dla społeczeństwa i nie naruszać praw podstawowych człowieka. Należy zwiększyć rolę sektora publicznego w ochronie obywateli, względem których są stosowane te systemy. Konieczne jest stworzenie odpowiednich wytycznych użytkowania systemów oraz kodeksu postępowania dla wszystkich dostawców usług, w tym producentów systemów AI. Istotną kwestią jest przejrzystość oraz budowanie zaufania wśród społeczeństwa w tym zakresie. Regulacje dot. systemów sztucznej inteligencji ogólnego przeznaczenia powinny również obejmować piaskownice, uwzględniając wymogi dla MŚP i startupów wykorzystujących systemy AI ogólnego przeznaczenia. Dodatkowo, tworzone regulacje i dokumenty powinny być opracowane z udziałem przedstawicieli różnych grup społecznych, w tym organizacji społecznych i obywatelskich

Iwona Karkliniewska, AI Researcher w Fundacji Moje Państwo