Krzysztof Izdebski
06 kwietnia 2020
Przeczytasz w 9 minut
Prezentujemy listę najważniejszych zasad projektowania technologii, które mają pomóc w zwalczaniu pandemii COVID-19. Zasady zostały poparte przez kilkadziesiąt osób - ekspertów i ekspertek z obszaru prawa oraz technologii.
Znaleźliśmy się wśród sygnatariuszy postulatów, bo sami od lat wzywamy do tego, aby proces wdrażania technologii przez rządy był przejrzysty i gwarantujący ochronę praw człowieka i obywatela. Jest to tym bardziej ważne obecnie. Jesteśmy świadkami zaprzęgania technologii do walki z pandemią, często bez oglądania się na jej etyczne aspekty. Jednocześnie sytuacja, w której się znaleźliśmy, niesie ogromne ryzyko dla zwiększenia kontroli państwa nad obywatelami i obywatelkami za pomocą technologii, nie tylko na czas pandemii, ale i na długo po jej zakończeniu.
Do takiej sytuacji nie możemy dopuścić i wszystkie podmioty wdrażające tego typu rozwiązania muszą od początku dbać o spełnienie wymogów przejrzystości, minimalizacji używanych danych oraz ograniczenia działania narzędzi wyłącznie do celu, dla których zostały stworzone.
Pod listem znajdują się podpisy aktualne na moment publikacji. Jeśli chcą Państwo złożyć swój podpis prosimy o przesłanie takiej informacji pod adres fundacja@panoptykon.org Tytuł maila: 7 filarów zaufania - popieram
Aktualizacja podpisów będzie widoczna na stronie https://panoptykon.org/7-filarow-zaufania
Technologia może pomóc nam w walce z pandemią koronawirusa, ale wdrażanie w trybie przyspieszonym nowych rozwiązań technologicznych nie może stać się furtką do naruszeń praw i wolności obywateli. Monitorowanie społecznych kontaktów przy pomocy narzędzi technologicznych zadziała tylko przy dużym poparciu i dobrowolnej współpracy ze strony ludzi. Taka postawa wymaga wysokiego poziomu zaufania obywateli do narzędzia, które zostanie im zaproponowane przez państwo.
Wychodząc naprzeciw potrzebie chwili, przypominamy najważniejsze zasady projektowania narzędzi w sposób zgodny z RODO i budzący społeczne zaufanie:
1. Minimalizacja i poprawność danych
W celu przeciwdziałania pandemii można przetwarzać tylko te dane, które są niezbędne do realizacji celu założonego w ramach konkretnego narzędzia (np. jeśli celem jest zarejestrowanie społecznej interakcji, która stwarza ryzyko zarażenia, wystarczy zapisanie pary urządzeń, które się „spotkały”, bez ich rzeczywistej lokalizacji). Co więcej, dostęp do danych powinny mieć tylko osoby i instytucje, które ten cel realizują (np. nie ma potrzeby, by obywatel korzystający z aplikacji do śledzenia społecznych kontaktów wiedział, kto naraził go na zakażenie; taką informację powinny otrzymać tylko służby sanitarne).
Wykorzystywane powinny być tylko możliwie najbardziej prawidłowe dane o ludziach. Jest to szczególnie ważne w rozwiązaniach sprawdzających prawdopodobieństwo zarażenia na podstawie danych o lokalizacji: przetwarzanie niepotwierdzonych danych potęgowałoby chaos, bo użytkownicy otrzymywaliby fałszywe powiadomienia o możliwym zarażeniu.
2 Ograniczenie czasu przechowywania danych
Dane osobowe nie powinny być przechowywane dłużej, niż jest to konieczne do zrealizowania konkretnego celu, jakiemu mają służyć. Na przykład zapis kontaktów społecznych przemieszczającej się osoby jest potrzebny tylko przez okres, w jakim standardowo pojawiają się objawy zakażenia (do 14 dni), a dane biometryczne osoby objętej kwarantanną, przesłane w raporcie z aplikacji, tylko do momentu zweryfikowania, że raport był poprawny. W ustalaniu maksymalnych terminów powinni brać udział lekarze, epidemiolodzy i eksperci techniczni.
3 Dane przechowywane na urządzeniu obywatela
Narzędzia służące do zwalczania koronawirusa nie powinny prowadzić do tworzenia nowych baz danych, przechowywanych na serwerach administracji publicznej. Zasadą powinno być gromadzenie i przetwarzanie danych osobowych na urządzeniu osoby, której te dane dotyczą. Przekazanie danych na zewnętrzny serwer (np. zarządzany przez służby sanitarne) powinno następować tylko w ściśle określonych i uzasadnionych przypadkach (np. stwierdzonego incydentu zarażenia), a obywatel powinien być o tej konieczności uprzednio poinformowany.
4 Bezpieczeństwo, szyfrowanie i anonimizacja danych
Dane osobowe powinny być szyfrowane, anonimizowane (tam, gdzie to niemożliwe - pseudonimizowane), a korzystające z nich aplikacje powinny zachowywać najwyższe standardy bezpieczeństwa i być poddawane odpowiednim audytom. W ramach walki z epidemią grozi nam przetwarzanie danych milionów obywateli przez systemy, które powstają pod presją czasu. To sytuacja podwyższonego ryzyka również w kwestii cyberbezpieczeństwa: jakikolwiek wyciek będzie miał katastrofalne skutki dla społecznego zaufania do technologii wdrażanych przez państwo.
5 Czytelna informacja dla obywateli
Podstawą społecznego zaufania do narzędzi technologicznych służących walce z pandemią jest czytelna i zrozumiała informacja dla osób, których dane będą wykorzystywane. Obywatele powinni rozumieć zasady działania proponowanych im narzędzi, zakres zbieranych o nich danych oraz to, kto i w jaki sposób z tych danych skorzysta.
6. Otwartość kodu i przejrzystość algorytmów
Standardem dla narzędzi służących do walki z pandemią powinna być pełna otwartość kodu oraz algorytmów stosowanych do analizy danych (np. parametry brane pod uwagę przy określaniu ryzyka zakażenia w kontakcie społecznym muszą być jawne). Tylko taki standard umożliwi publiczną kontrolę nad narzędziami technologicznymi, a zarazem przełoży się na ich bezpieczeństwo. Otwartość kodu daje bowiem możliwość szybszego zidentyfikowania błędów i możliwych zagrożeń dla prywatności, co dodatkowo wzmacnia zaufanie do danej aplikacji.
7 Publiczna kontrola nad narzędziami
Każde narzędzie, z którego państwo zamierza skorzystać w walce z pandemią, powinno zostać wcześniej zweryfikowane pod kątem cyberbezpieczeństwa i standardów ochrony danych osobowych. W przypadku rozwiązań, których kod jest niedostępny do publicznej analizy, to państwo musi wykazać, że standardy bezpieczeństwa danych i ochrony prywatności są spełnione. W sytuacji, gdy takie rozwiązanie ma być wykorzystywane do zbierania danych osobowych obywateli, organ administracji musi mieć też pełną kontrolę nad systemem.
Dominik Batorski, Uniwersytet Warszawski
Edwin Bendyk
Piotr Beńke
dr hab. Przemysław Biecek, Politechnika Warszawska
Grzegorz Borowski, Infoshare
Maciej Broniarz, Centrum Nauk Sądowych UW
Maciek Budzich, Mediafun
Dominika Bychawska-Siniarska, Helińska Fundacja Praw Człowieka
Jakub Chabik, Politechnika Gdańska
Łukasz Chmielniak
Mateusz Chrobok
Szymon Ciupa, smartcity-expert.eu
dr Aleksandra Gliszczyńska-Grabias, INP PAN
Krzysztof Głomb, Stowarzyszenie "Miasta w Internecie"
dr hab. Agnieszka Grzelak, ALK
Adam Haertle, ZaufanaTrzeciaStrona
Natalia Hatalska, infuture.institute
dr inż. Wacław Iszkowski
Krzysztof Izdebski, Fundacja ePaństwo
Łukasz Jachowicz, Internet Society Poland
prof. Dariusz Jemielniak, MINDS, Akademia Leona Koźmińskiego
dr Maciej Kawecki, Instytut Polska Przyszłości im. Stanisława Lema
Filip Kłębczyk, Prezes Polskiej Grupy Użytkowników Linuxa
Wojciech Klicki, Fundacja Panoptykon
Rafał Kłoczko, CD Projekt Red
Michał Kluska
Piotr Konieczny, Niebezpiecznik
dr Michał Kosiński, Stanford University
Nikodem Krajewski
Artur Krawczyk, Stowarzyszenie „Miasta w Internecie”
Robert Kroplewski, Law Office
Eliza Kruczkowska
Artur Kurasiński
Jakub Lipiński, przedsiębiorca
dr Paweł Litwiński, Instytut Prawa Nowych Technologii i Ochrony Danych Osobowych Uczelni Łazarskiego
Artur Marek Maciąg, Inicjatywa Kultury Bezpieczeństwa
Daniel Macyszyn, Fundacja ePaństwo
Mirosław Maj, Fundacja Bezpieczna Cyberprzestrzeń
Lidka Makowska, Kongres Ruchów Miejskich Gdańsk
Marcin Maruta
dr Arwid Mednis, Wydział Prawa i Administracji Uniwersytetu Warszawskiego
Łukasz Mikuła
Natalia Mileszyk, Fundacja Centrum Cyfrowe
Michal Olczak
Igor Ostrowski
dr hab. Marcin Paprzycki, IEEE Computer Society
Bartosz Paszcza, Klub Jagielloński
dr hab. Aleksandra Przegalińska, Akademia Leona Koźmińskiego
Danuta Przywara, Helsińska Fundacja Praw Człowieka
dr Agnieszka Pugacewicz, DELab UW
Małgorzata Ratajska-Grandin, OVHcloud
prof. Wojciech Sadurski, University of Sydney
dr Marlena Sakowska Baryła, Stowarzyszenie Praktyków Ochrony Danych
Wojciech Sańko, Koduj dla Polski
Wiktor Schmidt, Netguru
Aneta Sieradzka, Sieradzka & Partners Kancelaria Prawna
Andrzej Skworz, Press
dr hab. Katarzyna Śledziewska, DELab, Wydział Nauk Ekonomicznych Uniwersytetu Warszawskiego
dr Anna Sledzińska-Simon, WPAiE Uniwersytetu Wrocławskiego
Kamil Śliwowski, Centralny Dom Technologii
prof. Arkadiusz Sobczyk, Uniwersytet Jagielloński
dr hab. Dariusz Szostek
dr Sebastian Szymański
Katarzyna Szymielewicz, Fundacja Panoptykon
dr Alek Tarkowski, Fundacja Centrum Cyfrowe
dr Krzysztof Wygoda, Wydział Prawa, Administracji i Ekonomii, Uniwersytet Wrocławski
prof. Mirosław Wyrzykowski
Arkadiusz Złotnicki, Stowarzyszenie „Miasta w Internecie”
Jan Zygmuntowski, Instrat
/dalsze podpisy w kolejności wpływania/
Antoni Napieralski, Uniwersität Wien
Tomasz Zieliński, informatykzakladowy.pl
Maria Magierska, European University Institute
Filip Konopczyński, Fundacja Kaleckiego
Tomasz Borys
Daniel Ślęzak
Damian Klimas, Wydział Prawa, Administracji i Ekonomii, Uniwersytet Wrocławski
dr hab. Wojciech Filipkowski
Agnieszka Rapcewicz
Jacek Grzeszak, Polski Instytut Ekonomiczny
Barbara Sowa
Krzysztof Pietruszewski, Konin. Mam Prawo Wiedzieć
Marek Śledzik, NOVA Komputery
Michał Tabor, Ekspert PIIT, Obseratorium.biz
Magdalena Doliwa-Górska
Zofia Kondracka
Jakub Smulewicz
Marta Trzcionka
dr Dominik Lubasz, Lubasz i Wspólnicy
Michał Duszczyński
Albert Lewandowski
Aleksandra Kulińska, infuture.institute
Kuba Piwowar, Uniwersytet SWPS
dr hab. Renata Włoch, Instytut Socjologii UW, DELab UW
Filip Pazderski, Instytut Spraw Publicznych
Ewa Stęplewska - latarniczka projektu Polska Cyfrowa Równych Szans
Igor Mróz
Małgorzata Fraser, dziennikarka i publicystka
r.pr. Tomasz Palak, tomaszpalak.pl
Jacek Belof
mgr inż. Artur Bać, EBASoft
Grzegorz Szymczyk, Kancelaria Radcy Prawnego Grzegorz Szymczyk
dr Helena Chmielewska-Szlajfer, Akademia Leona Koźmińskiego
adw. Jacek Stefaniuk
Maciej Mandelt, Stowarzyszenie Nomada
Jan Stradowski, Człowiek 2.0
Tomasz Onyszko, CTO, Predica
Patrycja Żarska-Cynk, Safety2gether
Adam Mizerski
Igor Pierściński
Barnaba Mądrecki, pozycjoner, Poznań
Dawid Suder, Katedra Informatyki AGH
dr inż. Łukasz Faber, Akademia Górniczo-Hutnicza
Witold Rakoczy, Polskie Towarzystwo Informatyczne
dr Damian Karwala, Stowarzyszenie Praktyków Ochrony Danych
adw. Ewelina Gębała
Wiesława Lipińska
Adam Aleksander Klimowski
Witold Chomiczewski, Lubasz i Wspólnicy
dr inż. Marek Brudka
Łukasz Bieńkowski
Andrzej Filipowicz
Zbigniew Kupisz-Andrzejewski, CISA, CRISC
Liubov Gorobiuk
Krzysztof Rutecki, Encedo
Artur Markiewicz, cyberkurs.online
Paweł Smater
Paweł Wołoszyn
Mikołaj Domanowski
Jarosław Potiuk, Polidea
r.pr. Marcin Kozłowski
dr Paweł Mirecki
r. pr. Magdalena Witkowska, przewodnicząca Komisji Praw Człowieka KIRP w imieniu Komisji
r. pr. Mirosław Wróblewski, Biuro RPO, Komisja Praw Człowieka KIRP
Iwona Burzej-Biel
r. pr. Maciej Jankowski
Rafał Siudak
Michał Strzelecki
Antonina Zofia Karczewska