Możliwości, jakie sztuczna inteligencja daje przeciwnikom politycznym i rozmaitym wichrzycielom, odczuł niedawno na własnej skórze premier Wielkiej Brytanii. W wygenerowanym przez AI wideo i rozpowszechnianym jako reklama, wśród 400 tys. użytkowników Facebooka, dziennikarz BBC oskarża Rishiego Sunaka o defraudację publicznych pieniędzy.
Liczne wezwania do „prewencyjnego zakończenia oszustw wyborczych Joe Bidena” pojawiły się z kolei na alternatywnej, amerykańskiej sieci społecznościowej BitChute.
Dezinformacja ryzykiem numer jeden
Ten rok jest wyjątkowym rokiem wyborczym. 2 mld obywateli zostanie wezwanych do urn, gdyż na świecie szykuje się naprawdę wiele wyborów: europejskie, prezydenckie w Indonezji, Rosji, RPA i Stanach Zjednoczonych, parlamentarne w Indiach, czy powszechne w Wielkiej Brytanii.
Dezinformacja wyborcza została uznana przez Forum Ekonomiczne w Davos za globalne ryzyko numer jeden. „Niezależnie od poziomu kultury, jeśli jesteś narażony na natrętne, spersonalizowane i powtarzające się treści dezinformacyjne, jesteś w trudnej sytuacji” – zauważa David Colon, profesor Sciences Po.
Bez względu na kraj, wybory są zagrożone przez fałszywe wiadomości przygotowane z użyciem AI. W ubiegłym roku francuski rząd uruchomił agencję Viginum, odpowiedzialną za „ochronę przed obcą ingerencją cyfrową” w sferze informacji. Stwierdziła w rozmowie z „Le Figaro”, że „w kontekście napięć geopolitycznych zaostrzonych przez utrzymujący się konflikt rosyjsko-ukraiński i pojawienie się nowych kryzysów międzynarodowych, zwłaszcza między Izraelem a Hamasem, wybory europejskie w 2024 r. mogą zostać wykorzystane przez podmioty pragnące podważyć sprawny przebieg głosowania w dziedzinie informacji”.
Coraz łatwiej manipulować
W jaki sposób dane osobowe mogą być wykorzystywane bez wiedzy osób, których dotyczą, do mikrotargetowania i manipulacji, pokazał skandal Cambridge Analytica po referendum w sprawie Brexitu, Idąca w miliony liczba profili Brytyjczyków nielegalnie pozyskanych przez firmę dzięki mechanizmom Facebooka, miała zostać użyta do opracowania kampanii przed referendum.
Od tego czasu minęły lata, ale wciąż nie wszystkie wnioski zostały wyciągnięte. Wysiłki podejmowane przez platformy w celu ograniczenia toksycznych treści są trudne do oszacowania przez niezależnych obserwatorów. „W TikTok, sieci społecznościowej preferowanej przez młodych ludzi, API jest zamknięty, co utrudnia identyfikację dezinformacji” – wyjaśnia amerykański badacz Bruce Schneier.
David Colon przyznaje, że przeprowadzone badania wyraźnie wykazały, że techniki mikrotargetowania przynoszą efekty wyborcze. Co prawda są one skuteczne jedynie w przypadku zbliżających się wyborów, ale to wystarczy. Jednym z głównych źródeł dezinformacji w kampaniach wyborczych są autokratyczne rządy dążące do zdyskredytowania demokracji. „Od czasu pandemii i wojny w Ukrainie, zarówno Komunistyczna Partia Chin, jak i Rosja, są zaangażowane w wytwarzanie wątpliwości i sceptycyzmu oraz eksportowanie ich do społeczeństw zachodnich” – zauważa Bruce Schneier.
Groźna generatywna sztuczna inteligencja
Generatywna AI rozwija się szybko. To nowe, poważne zagrożenie. Udostępnione każdemu narzędzia są w stanie tworzyć teksty, obrazy, dźwięki lub filmy. Wszystkie mogą sprawiać wrażenie realistycznych. „Sztuczna inteligencja może być wykorzystywana do generowania i animowania fałszywych kont w sieciach społecznościowych, automatyzacji tworzenia wiarygodnych i zróżnicowanych treści, a tym samym utrudniania wykrywania tego, co jest fałszywe, niedokładne lub wprowadzające w błąd” – wyjaśnia Viginum.
Liczba fałszywych stron i portali rośnie lawinowo. W swoim raporcie z 8 stycznia NewsGuard ujawnił istnienie 634 niewiarygodnych witryn informacyjnych wygenerowanych przez sztuczną inteligencję i obejmujących około 15 języków. To aż 13 razy więcej niż osiem miesięcy wcześniej!
Zdając sobie sprawę z rosnącej odpowiedzialności za sprawny przebieg procesu demokratycznego, gigant OpenAI ujawnił niedawno, że pracuje nad narzędziami do wiarygodnego określania źródeł tekstu generowanego przez ChatGPT. Ma to umożliwić użytkownikom wykrycie tego, czy obraz został utworzony przy użyciu oprogramowania Dall-E 3. Firma oświadczyła, że nie dopuści do budowy aplikacji do kampanii politycznych lub bojowych na podstawie technologii OpenAI. Chatboty podszywające się pod kandydatów w wyborach, również zostaną zakazane.
Edukacja pomaga
Jak zaobserwowało Viginum, także we Francji narasta tendencja do „utowarowienia” dezinformacji. Jak to w praktyce wygląda? Otóż chodzi o zlecanie tworzenia fałszywych treści nieformalnym sieciom („proxy”) lub prywatnym podmiotom, zajmującym się marketingiem cyfrowym i komunikacją. W ten sposób prawdziwi sponsorzy mogą pozostać w ukryciu.
„Na Tajwanie nigdy nie było tyle dezinformacji, a mimo to William Lai 13 stycznia został wybrany 41 proc. głosów” – zauważył komisarz europejski Thierry Breton podczas swojej konferencji prasowej. Zwycięstwo prozachodniego polityka na pewno nie jest w smak Chinom. Wynik wyborów udowodnił jednak, że mówienie o zagrożeniach związanych z dezinformacją i edukowanie obywateli w tym zakresie jest bardzo ważne i przynosi efekty.
Przeczytaj także:
- Rosyjska sieć internetowej dezinformacji ujawniona
- USA/ Sztabowiec przyznał się do wypuszczenia w prawyborach godzącego w Bidena deepfake’a
- Raport: rośnie liczba Polaków o opiniach zbieżnych z rosyjską propagandą
- Rosyjska wojna informacyjna w Europie Wschodniej
- Jak walczyć z zalewem rosyjskiej dezinformacji?
Więc chociaż Tajwan jest silnie zagrożony ingerencją ze strony Pekinu, to nastąpiła mobilizacja zarówno obywateli, jak i lokalnych mediów, która odniosła właściwy skutek. Niestety, w reżimach bez wolnych mediów prawda bardzo rzadko ma szansę wyjść na powierzchnię.