Prace nad dostosowaniem pozaumownych zasad odpowiedzialności cywilnej systemów sztucznej inteligencji

Przeczytasz w 5 minut

Komisja Europejska zaproponowała uregulowanie zasad pozaumownej odpowiedzialności cywilnej stosowania systemów sztucznej inteligencji przez podmioty, przyjmując tzw. Dyrektywę w sprawie odpowiedzialności za AI („Projekt”).

Akt prawny ma na celu zwiększenie zaufania, wzmocnieniefundamentalnych praw oraz zapewnienie przejrzystości w wykorzystywaniu systemów sztucznej inteligencji na rynku unijnym. Propozycja regulacji powstała na podstawie strategii Białej Księgi Sztucznej Inteligencji oraz Raportu Odpowiedzialności AI. Parlament Europejski zainicjował działania przyjmując rezolucję, która zobowiązała KE do przygotowania zasad odpowiedzialności cywilnej stosowania systemów sztucznej inteligencji. 

Obecnie istniejące zasady odpowiedzialności cywilnej na rynku unijnym nie uwzględniają specyfiki produktów i usług opartych na technologii sztucznej inteligencji. Co więcej, aktualne akty prawne zobowiązują osoby poszkodowane do udowodnienia szkodliwego lub niesłusznego działania względem nich wadliwych produktów lub usług. Systemy sztucznej inteligencji – wobec specyfiki ich działania, kompleksowości, autonomiczności oraz efektów tzw. czarnych dziur w procesie funkcjonowania – mogą powodować utrudnienia w kontekście dochodzenia swoich praw przez osobę poszkodowaną.

Na etapie dochodzenia praw przez osobę poszkodowaną, mogą powstać niewymiernie wysokie koszty dla tej osoby już na etapie identyfikacji osoby odpowiedzialnej za spowodowanie szkody, wydłużając tym samym proces udowodnienia ciężaru odpowiedzialności i skomplikować dochodzenie samego odszkodowania. Sądy krajowe mogą mieć różne podejście w interpretacji zaistniałej szkody w procesie dochodzenia praw przez osobę poszkodowaną. Wiele strategii narodowych AI uwzględniło w jakiś sposób kwestię odpowiedzialności cywilnej dla sztucznej inteligencji m.in. Polska, Czechy, Malta, Włochy i Portugalia. Jednak specyfika funkcjonowania systemów sztucznej inteligencji poza fizycznymi granicami krajów członkowskich wymaga scentralizowanego uregulowania prawnego odpowiedzialności cywilnej. 

Projekt dyrektywy stanowi część pakietu narzędzi wspierających rozwój AI w Unii i jest uzupełnieniem, m.in. zharmonizowanych przepisów tzw. Aktu AI, rewizji sektorowych i horyzontalnych przepisów dot. bezpieczeństwa produktów, a także zasad odpowiedzialności względem stosowanych systemów sztucznej inteligencji w UE. 

Projekt Dyrektywy w swoim zakresie reguluje prawne aspekty następujących zagadnień:

1. Przedmiot i obszar zastosowania

Projekt aktu dotyczy odpowiedzialności pozaumownej związanej z działaniem sztucznej inteligencji. Ma głównie zastosowanie w przypadku dochodzenia odszkodowania za spowodowane szkody w wyniku wykorzystywania wdrożonych systemów wysokiego ryzyka AI, a w szczególności umożliwia proces uzyskania informacji, zapisów i dokumentacji dot. danych systemów sztucznej inteligencji, które będą w przyszłości przedmiotem uregulowania przez tzw. AI Act. Akt prawny nie będzie obowiązywać mocą prawną wstecz, a jedynie ma być środkiem prawnym do dochodzenia odszkodowania i rekompensaty po wejściu w życie AI Act.

2. Wprowadzone pojęcia i definicje

Definicje dot. systemów sztucznej inteligencji oraz użytkowników mają odniesienie do przedstawionych definicji w tzw. AI Act. Poszkodowanym, zgodnie z zapisem definicji, może być osoba fizyczna lub osoba prawna, która została objęta zastosowaniem systemów sztucznej inteligencji. Dodatkowo, definicja poszkodowanego rozszerza pojęcie na podmioty, które były objęte przykładowo umową współpracy, powierzenia lub mogą występować w imieniu osoby poszkodowanej.

3. Domniemanie związku przyczynowego

W art. 4 projektowanego aktu ustanowiono ukierunkowane domniemanie wzruszalne związku przyczynowego. Oznacza to, że w przypadku wniesienia przez poszkodowanego pozwu do sądu o odszkodowanie, w razie wyrządzenia mu szkody przez sztuczną inteligencję, sąd ma domniemywać związek przyczynowy między winą pozwanego korzystającego z AI a działaniem lub brakiem działania AI powodującym szkodę. Czyli ten kto korzysta ze sztucznej inteligencji będzie musiał wykazać, że nie powinien ponosić odpowiedzialności a nie osoba poszkodowana.

4. Ujawnienie dowodów

Dowody szkodliwego wykorzystania systemów wysokiego ryzyka AI powinny być przedstawiane na wniosek sądu, do którego wpłynął wniosek ze skargą o odszkodowanie. Obowiązek przedstawienia dowodów będzie ciążyć zarówno na producentach systemów, jak również na ich użytkownikach (chodzi tu o wdrażających systemy AI).

5. Wdrożenie, monitoring i ewaluacja

W Projekcie zaproponowano wdrożenie mechanizmu monitoringu i pomiaru ewaluacji sprawności wykonania procedury dochodzenia odszkodowań w tym w trybie sądowym oraz postępowań ugody pozasądowej na podstawie wymiany informacji pomiędzy państwa członkowskie. Wymiana informacji ma obejmować zbieranie danych i rodzaju przedstawianych dowodów w skargach.

6. Implementacja na poziomie krajowego ustawodawstwa.

Kraje członkowskie powinny wdrożyć na poziomie krajowym zasady i regulacje chroniące osoby poszkodowane zastosowaniem względem nich systemów sztucznej inteligencji.

7. Projekt dyrektywy jest krokiem w dobrym kierunku, ale wymaga dopracowania

Dyrektywa pozwala na uregulowanie powstałych luk prawnych w dochodzeniu praw na gruncie odpowiedzialności cywilnej, umożliwia włączenie instytucji grupowego dochodzenia praw i odszkodowania dla osób fizycznych, zwiększa też instytucję zaufania społecznego względem instytucji egzekwowania prawa i sądownictwa. Należy jednak zauważyć, że nie jest odrębnym aktem prawnym, a jedynie uzupełnieniem proponowanych zapisów prawnych odpowiedzialności wykorzystywanych systemów sztucznej inteligencji wprowadzonych na rynek unijny, który opiera się na zasadach Dyrektywy dot. odpowiedzialności za produkty wadliwe wprowadzone na wewnętrzny rynek unijny. 

Zaproponowany akt prawny w kwestii zasad pozaumownej odpowiedzialności cywilnej nie uwzględnia wszystkich aspektów wykorzystywania systemów sztucznej inteligencji. Koncentruje się głownie na mechanizmie dochodzenia praw dla osób w przypadku systemów wysokiego ryzyka AI. Wątpliwe pozostają kwestie dochodzenia praw odszkodowania przez osoby poszkodowane z wykorzystaniem względem nich ogólnych systemów AI. Nie jest też do końca jasne podejście w kwestii odpowiedzialności organizacji względem wdrożonych systemów AI. Systemy sztucznej inteligencji mogą nie tylko być produktem, ale też stanowić element wspomagania zarządzania procesami w przetwarzaniu danych i automatycznego podejmowania decyzji, w szczególności w przypadku sektora publicznego. Zaproponowana dyrektywa jest krokiem w dobrym kierunku, ale zdecydowanie wymaga dalszych prac w celu lepszego zapewnienia prawa do uzyskania odszkodowania przez osoby dotknięte działaniem sztucznej inteligencji.

Iwona Karkliniewska, AI Researcher w Fundacji Moje Państwo