Bezpieczeństwo w Internecie

Przeczytasz w 4 minuty

W dniu 25 czerwca na Uniwersytecie Stefana Kardynała Wyszyńskiego odbyła się XIV Konferencja „Bezpieczeństwo w Internecie”. Organizatorami konferencji byli, m.in. Uniwersytet Kardynała Stefana Wyszyńskiego, Akademia Leona Koźmińskiego, Naukowa i Akademicka Sieć Komputerowa – Państwowy Instytut Badawczy oraz Naukowe Centrum Prawno – Informatyczne (NASK) przy wsparciu merytorycznym Sektorowej Rady ds. Kompetencji Telekomunikacji i Cyberbezpieczeństwa. 

Tematem przewodnim konferencji były zagadnienia związane z cyberbezpieczeństwem i wykorzystywanym w sieci hakerstwem (hacking). Konferencja była podzielona na panele tematyczne i obejmowała dyskusję na temat narodowego bezpieczeństwa w cyberprzestrzeni, zapobieganie cyberprzestępstwom, a także dotyczyła certyfikacji, ochrony danych osobowych, tożsamości cyfrowej, dezinformacji oraz efektywnego zarządzania incydentami. Jeden z paneli tematycznych został poświęcony, m.in. aspektom związanym z wykorzystaniem sztucznej inteligencji. Podczas panelu na temat sztucznej inteligencji zostały omówione kwestie społeczne, gospodarcze oraz prawne wykorzystania systemów inteligentnego zarządzania. Zostały także przedstawione przykłady wykorzystania algorytmów AI, a także obecnie występujące zagrożenia i przyszłe wyzwania. 

Jednym z istotnych zagadnień, które zostało poruszone w trakcie panelu na temat sztucznej inteligencji było wykorzystanie i przetwarzanie metadanych. Przyjęta Dyrektywa 2019/1024 z 20 czerwca 2019 r. w sprawie otwartych danych i ponownego wykorzystania informacji sektora publicznego, która w Polsce została zaimplementowana w 2021 r. (Ustawa o otwartych danych i ponownym wykorzystaniu informacji sektora publicznego), ustanawia zasady i możliwości inteligentnego wykorzystywania otwartych danych sektora publicznego. 

Struktury i rejestr metadanych jest opisany w stosowanych standardach ISO, a także w Rozporządzeniu MSWiA z dnia 30 października 2006 r. w sprawie niezbędnych elementów struktury dokumentów elektronicznych. Metadane, stanowiące informację sektora publicznego powinny być, co do zasady, traktowane jako informacja sektora publicznego, a w procesie ich dekodowania i przetwarzania mogą zostać również zakwalifikowane do innych kategorii danych i być wymieniane pomiędzy różnymi systemami – charakter interoperacyjności przetwarzania danych. 

Warto zauważyć, że dekodowanie metadanych i wykorzystanie ich przy użyciu języka naturalnego, może skutkować wystąpieniem okoliczności w przyszłości, których prawdopodobieństwo wystąpienia może być przedstawione w wyniku analizy danych wejściowych w stosowanych systemach metadanych. Zastosowanie tego rodzaju danych może mieć istotne znaczenie w przypadku danych statystycznych wykorzystywanych do celów naukowo - badawczych, np. w medycynie. 

Jednak wykorzystanie różnego rodzaju danych osobowych może też rodzić pewne zagrożenie w kwestii ochrony prywatności osób, bezpieczeństwa oraz przejrzystości podejmowanych decyzji. Stwarza to możliwość wykorzystywania danych publicznie dostępnych do celów tzw. "białego hakerstwa” (white hacking). Dlatego należy określić obszary możliwe do wykorzystania udostępnionych publicznych dostępów zbiorów metadanych, rozgraniczyć elementy stosowania białego, szarego i czarnego hackingu, a także określenie granice legalności stosowanego białego hackingu.

Ważne aspekty związane z wykorzystaniem sztucznej inteligencji zostały poruszone podczas wystąpienia przedstawiciela ENISA (Agencja Unii Europejskiej ds. Cyberbezpieczeństwa). Agencja UE bierze aktywny udział w pracach nad dostosowaniem AI ACT oraz zwraca uwagę na kwestie bezpieczeństwa wdrażanych systemów AI, które powinny być bezpieczne, przejrzyste, a sposób ich działania identyfikowalny. W całym cyklu wykorzystania systemów zarządzania sztuczną inteligencją, powinny być zdefiniowane i określone ryzyka w łańcuchu dostaw danych, w celu uniknięcia tzw. czarnej skrzynki danych (black box) oraz bias. Istotnym elementem w całym procesie jest też zdefiniowanie samego cyklu funkcjonowania AI, a także zmapowanie wszystkich potencjalnie mogących wystąpić zagrożeń w procesie przetwarzania danych z wykorzystaniem algorytmów AI.

Podsumowując, poruszone aspekty i zagadnienia sztucznej inteligencji w trakcie konferencji należy włączyć do dyskusji nad harmonizacją AI ACT w sposób kompleksowy. Zachodzące procesy polegające na certyfikacji systemów AI, stosowanie rozwiązań technologicznych w istniejących systemach ERP oraz definiowanie algorytmów sztucznej inteligencji w fazie ich projektowania, powinny być przedstawiane w taki sposób, by mogły się charakteryzować niezawodnością, działaniem zgodnym z przewidzianym użytkowaniem, a także mieć możliwość uzyskiwania powtarzalności wyników. Ta kwestia może mieć duże znaczenie w procesie podejmowania decyzji AI/ADM w sektorze administracji publicznej wykorzystujących dane osobowe.

Opracowanie: Iwona Karkliniewska, Researcher w Fundacji Moje Państwo