Odpowiedzialność za AI: projekt dyrektywy w sprawie odpowiedzialności za produkty wadliwe – konsultacje publiczne

Przeczytasz w 3 minuty

28 września 2022 roku Komisja Europejska przyjęła dwa wnioski zmierzające do uregulowania odpowiedzialności w kontekście działania sztucznej inteligencji. Pierwszy wniosek dotyczy unowocześnienia aktualnie obowiązujących przepisów w zakresie odpowiedzialności producentów za produkty niebezpieczne na zasadzie ryzyka. W drugim wniosku Komisja zaproponowała odrębną dyrektywę dotyczącą odpowiedzialności za sztuczną inteligencję (regulującą odpowiedzialność pozakontraktową). Fundacja docenia działania podejmowane przez Komisję mające na celu ustanowienie lepszych ram prawnych dla odpowiedzialności za działalność sztucznej inteligencji.

Obecnie trwają konsultacje publiczne prowadzone przez KE dotyczące propozycji zmian dyrektywy w sprawie odpowiedzialności za produkty wadliwe. Fundacja poniżej prezentuje swoje uwagi do projektu.

  1. Systemy sztucznej inteligencji mogą funkcjonować jako produkty wadliwe i niebezpieczne, dlatego za zasadne uważamy włączenie oprogramowania do definicji produktu. Zaproponowana zmiana będzie stanowiła dla producentów oprogramowania motywację do zapewniania większego stopnia bezpieczeństwa produktów wprowadzanych na rynek. Należałoby jednak rozważyć wyjaśnienie czym jest oprogramowanie (np. w preambule projektowanej regulacji), w szczególności w kontekście relacji tego pojęcia do definicji programu komputerowego. Definicja programu komputerowego pojawia się w Dyrektywie PE i Rady 2009/24/WE z dnia 23 kwietnia 2009 r. w sprawie ochrony prawnej programów komputerowych (pkt 7 preambuły).
  2. Z punktu widzenia praktyki stosowania przepisów za wartościowe należy uznać wyjaśnienie zawarte w treści projektowanej dyrektywy co do tego, że do celów stosowania odpowiedzialności na zasadzie ryzyka oprogramowanie jest produktem, niezależnie od sposobu jego dostarczenia lub użytkowania, a zatem niezależnie od tego, czy oprogramowanie jest przechowywane na urządzeniu, czy dostępne za pośrednictwem technologii chmury obliczeniowej. 
  3. Sztuczna inteligencja pojawia się w treści projektowanej regulacji w dwóch motywach preambuły: 12 i 34. W treści motywu 12 odwołano się do Aktu w sprawie sztucznej inteligencji: (...) “Twórców lub producentów oprogramowania, w tym dostawców systemów sztucznej inteligencji w rozumieniu [rozporządzenia (UE).../... (akt w sprawie sztucznej inteligencji)], należy traktować jak producentów”. W projekcie nie odwołano się jednak do aktu w sprawie sztucznej inteligencji w zakresie terminu “system sztucznej inteligencji” (motyw 34). Należałoby rozważyć doprecyzowanie podejścia w tym zakresie.
  4. Na aprobatę zasługuje uregulowanie dotyczące obowiązku publikowania w państwach członkowskich wyroków kończących postępowanie wydanych przez sądy krajowe w związku z postępowaniami wszczętymi na podstawie projektowanej dyrektywy. (art. 15 ust. 1). Za wartościową należy uznać propozycję utworzenia przez Komisję publicznie dostępnej bazy danych zawierających ww. wyroki. (art. 15 ust. 2). Orzecznictwo krajowych sądów państw członkowskich dotyczące stosowania przepisów projektowanej dyrektywy, zgromadzone w jednym miejscu, będzie ważnym źródłem informacji zarówno dla konsumentów jak i biznesu. Baza danych pozwoli także na uchwycenie skali wykorzystywania w UE uprawnień przysługujących na podstawie projektowanej regulacji. Z tych powodów utworzenie takiej bazy danych powinno być obligatoryjne, a nie fakultatywne jak przewiduje projekt.