Stałym elementem wojny w Ukrainie są działania hybrydowe prowadzone w sieci. Cyberbezpieczeństwo i ochrona danych ma dziś ogromne znaczenie – zarówno w kontekście infrastruktury państwa, jak i indywidualnych użytkowników. – W tym kontekście wszyscy jesteśmy cyberżołnierzami, wszyscy stoimy na pierwszej linii frontu i musimy mieć świadomość zagrożeń – podkreśla dr Piotr Łuczuk, ekspert do spraw cyberbezpieczeństwa, wicedyrektor Instytutu Edukacji Medialnej i Dziennikarstwa UKSW. Jak wskazuje, użytkownicy sieci muszą też wiedzieć, jaki cyfrowy ślad po sobie zostawiają i w jaki sposób ich dane są wykorzystywane – także przez cyberprzestępców czy duże platformy społecznościowe, które „karmią” nimi algorytmy reklamowe.
– Z Facebooka można dziś pobrać plik danych na swój temat. To są dane wygenerowane w formie tekstowej i – żeby mniej więcej zobrazować, ile tych informacji o nas funkcjonuje w cyberprzestrzeni – taki plik może mieć nawet ok. 20 MB. Każda osoba, która pracowała kiedykolwiek z plikiem tekstowym, wie, że obszerna książka zajmuje ok. 500 KB danych, a tu mówimy aż o 20 MB, czyli o setkach tysięcy stron informacji na nasz temat: z kim się spotykamy, co lubimy, czego nie lubimy, w jakie reklamy i w jakie posty klikamy najczęściej, co nas interesuje, na czym jesteśmy w stanie skupić swoją uwagę. Te dane behawioralne na nasz temat są bardzo cenne, one są wykorzystywane m.in. przez rynek marketingowy. Na ich podstawie można np. przygotować dla nas kampanie reklamowe, na które po prostu będziemy wrażliwi, którym nie będziemy w stanie się oprzeć – mówi agencji Newseria Biznes dr Piotr Łuczuk.
Z Facebooka, TikToka, X (dawniej Twitter) czy YouTube’a codziennie korzystają setki milionów użytkowników, a tzw. big techy gromadzą na ich temat ogromne ilości danych – takich jak m.in. wiek, płeć, wykształcenie, zamieszkanie, zainteresowania, cechy osobowościowe, choroby, preferencje seksualne, kontakty – z których część ma wrażliwy, intymny charakter. Te dane są następnie wykorzystywane do „karmienia” algorytmów AI, które odpowiadają za personalizację reklam i rekomendowanie treści. Ich zadaniem jest zmaksymalizowanie czasu spędzanego przez użytkowników na platformie, aby obejrzeli jak najwięcej reklam, a przy tym wygenerowali jeszcze więcej danych, które będą dalej napędzać algorytmy reklamowe.
Afera Cambridge Analytica z 2016 roku pokazała, że takie dane na temat użytkowników mogą też zostać użyte do manipulowania ich poglądami politycznymi i wpływania na wyniki wyborów. Wtedy dane blisko 50 mln użytkowników Facebooka miały zostać nielegalnie wykorzystane przez firmę Cambridge Analytica w kampanii wyborczej do promowania Donalda Trumpa.
– Dane na nasz temat funkcjonują na dwóch rynkach. Na rynku legalnym każda firma, którą na to stać, może sobie kupić dane na nasz temat, są ogólnodostępne bazy danych, a my bardzo często – nawet nieświadomie, instalując kolejne aplikacje i nie czytając regulaminów, alertów czy obostrzeń dotyczących tego, jakie uprawnienia im przyznajemy – otwieramy dostęp do wielu informacji na swój temat. Trafiamy do bazy danych, a później się dziwimy, że ktoś do nas dzwoni z call center i skąd ma nasz numer. Właśnie stąd. Natomiast to się odbywa w sposób legalny, zgodnie z prawem, ponieważ kliknęliśmy, wyraziliśmy zgodę dla tej czy innej aplikacji, przyznaliśmy jej dostęp i w ten sposób nasze dane trafiły na ten legalny rynek – mówi ekspert do spraw cyberbezpieczeństwa. – Jest jeszcze druga strona medalu, czyli rynek nielegalny, działający w darknecie. Na czarnym rynku nasze dane są sprzedawane, przehandlowywane temu, kto da więcej, a później bardzo często wykorzystywane np. w trollingu internetowym, w zmasowanych kampaniach dezinformacyjnych albo w skrajnych przypadkach do tego, żeby przejmować tożsamości i czyścić konta bankowe czy zaciągać kredyty na nasz koszt.
Jak pokazał niedawny raport CERT Orange Polska, ochrona danych i cyberbezpieczeństwo z każdym rokiem stanowi coraz większe wyzwanie zarówno dla indywidualnych użytkowników sieci, firm i instytucji, jak i na poziomie państwa. W tym pierwszym przypadku zespół zajmujący się zwalczaniem cyberzagrożeń zablokował w ub.r. ponad 360 tys. fałszywych stron internetowych, co oznacza aż trzykrotny wzrost r/r. W linki prowadzące do takich stron, stworzonych przez cyberprzestępców w celu wykradzenia danych lub wyczyszczenia kont bankowych, kliknęło ok. 5,5 mln Polaków. W trendach na 2024 rok eksperci wymienili m.in. coraz bardziej zaawansowane wykorzystanie algorytmów AI do typowania potencjalnych ofiar i tworzenia skutecznych kampanii dezinformacyjnych, opartych na deepfake’ach i i socjotechnice.
– Jest też wyzwanie związane z inwigilacją, o czym kilka lat temu mówił Edward Snowden, a później ten temat wrócił przy okazji Pegasusa. Wtedy ujawniono bardzo istotną rzecz, że w zasadzie każdy telefon czy urządzenie mobilne nas podsłuchuje. Każdy telefon jest wyposażony w kamerę i mikrofon, które są w stanie rejestrować obraz i dźwięk praktycznie cały czas. Zwróćmy uwagę, że współcześnie telefony nie mają wyjmowanych baterii – właśnie po to, żeby nie dało się ich wyłączyć. Nawet jeżeli telefon komunikuje nam, że stan baterii jest zbyt niski i wyłącza ekran, to wciąż można np. lokalizować jego położenie, można zdalnie włączyć w nim mikrofon – mówi dr Piotr Łuczuk. – Kolejna kwestia to rozwój IoT i różnego typu smartgadżetów, które mamy w naszych domach w coraz większej ilości i które regularnie rejestrują to, co się wokół nich dzieje. To np. smartodkurzacze, które skanują topografię naszego mieszkania, czy smarttelewizory, które cały czas rejestrują każdą naszą rozmowę. To jest szalenie istotne, żebyśmy mieli świadomość tego, z jakich gadżetów korzystamy i kto tak naprawdę może nas słuchać czy przejąć chociażby dostęp do zdjęć czy nagrań z naszego telefonu.
Ekspert podkreśla, że cyberbezpieczeństwo i ochrona danych osobowych mają aktualnie ogromne znaczenie w kontekście rosyjskiej wojny w Ukrainie, której stałym elementem są działania hybrydowe: cyberataki na infrastrukturę państwową, jak i indywidualnych użytkowników czy szeroko zakrojone kampanie dezinformacyjne prowadzone w sieci.
– Szalenie istotne jest zabezpieczenie takich danych, które uznamy za strategiczne. To trochę tak jak z cyberbezpieczeństwem na szczeblu narodowym: cyberarmia zajmuje się chociażby zabezpieczeniem strategicznych struktur teleinformatycznych kraju. I oczywiście żadna, nawet najlepsza cyberarmia nie jest w stanie nas obronić, choć polscy cyberżołnierze zajmują pierwszą lokatę w jednym z najnowszych raportów NCSI. Natomiast ta cyberarmia broni struktur strategicznych na szczeblu krajowym. Ona nie będzie bronić każdego, statystycznego Kowalskiego z osobna. I w tym kontekście my wszyscy jesteśmy cyberżołnierzami, wszyscy stoimy na pierwszej linii frontu i musimy zdawać sobie z tego sprawę, mieć świadomość tych zagrożeń. Dlatego też pierwszym wyzwaniem dla całej wspólnoty europejskiej w kwestii ochrony danych jest podnoszenie świadomości użytkowników w zakresie ochrony danych osobowych i tego, czym jest tzw. cyfrowy ślad – podkreśla wicedyrektor Instytutu Edukacji Medialnej i Dziennikarstwa UKSW.
Z raportu „European Privacy Market Research 2023” firmy doradczej KPMG wynika, że w Polsce wzrasta świadomość odpowiedzialności za ochronę danych osobowych. Po ponad pięciu latach od wprowadzenia rozporządzenia RODO 58 proc. Polaków ocenia, że zyskali dzięki temu większą kontrolę nad swoimi danymi osobowymi. Z kolei 62 proc. Polaków obawia się o bezpieczeństwo swoich danych nawet bardziej niż pięć lat temu. Te obawy są nieco większe niż w pozostałych krajach Europy ujętych w badaniu KPMG (59 proc.).
Niepokój internautów wywołują m.in. algorytmy uczące się preferencji osób przeglądających treści w serwisach społecznościowych – takie mechanizmy budzą obawy u 59 proc. ankietowanych z Polski i 66 proc. wszystkich badanych z Europy. Treści typu deepfake zostały uznane za niepokojące przez 76 proc. badanych Polaków oraz przez 80 proc. pozostałych Europejczyków. Ponadto 71 proc. respondentów badania KPMG czuje dyskomfort związany z podsłuchiwaniem przez asystentów głosowych.
Nowe wyzwanie związane z ochroną prywatności stwarza też genAI – ponad połowa uczestników badania KPMG stwierdziła, że zachowuje ostrożność przy wprowadzaniu danych do chatbotów takich jak ChatGPT z obawy, że ich dane mogą być przechowywane i wykorzystywane do nieznanych celów. Eksperci zauważają, że rozwój sztucznej inteligencji na nowo definiuje obszar prywatności danych osobowych i nasila pesymistyczne nastroje społeczne dotyczące ich bezpieczeństwa.