Maszyny do szycia kłamstw. A jeśli to, co widzisz, nie istnieje?
Spis treści
Wpadła mi niedawno w oko rolka z profilu Kuby Wojewódzkiego, promująca nowy sezon jego show. Filmik przedstawia gospodarza programu, który robi sobie selfie z niezwykle barwną plejadą postaci, od nieżyjącego wokalisty Queen, przez znanego pirata z Karaibów i Leona Zawodowca, aż po Wojciecha Jaruzelskiego i samego siebie, tylko w o ćwierć wieku młodszym wydaniu. Rzecz jasna nie pierwszy raz widziałem deepfake, musiałem jednak przyznać w duchu, że jakość materiału robi wrażenie.
A gdyby zdumiewające możliwości AI zostały wykorzystane w mniej rozrywkowych celach…?
„Widziałem to na własne oczy!”
Pojęcie deepfake, odnoszące się do wygenerowanych przez sztuczną inteligencję obrazów, filmów lub głosów, pojawiło się zaledwie kilka lat temu. Od tamtej pory technologia ta poczyniła znaczne postępy i pozwala dziś na tworzenie materiałów audiowizualnych łudząco wiernie naśladujących prawdziwe osoby i sytuacje. O tym, jak niezwykłe ma możliwości, może się przekonać każdy, kto zapozna się choćby ze wspomnianym na wstępie filmikiem.
Niestety, polityczni gracze i zwykli prowokatorzy nie wahają się przed sięganiem po ten technologiczny miraż w niegodziwych celach, zwłaszcza, że technologia ta powszechnieje. Stworzenie wiarygodnie wyglądających migawek z frontu czy kompromitującej wypowiedzi prominentnego polityka jest dziś w zasięgu ręki (i myszki) prawie każdego. Jak wiadomo, kij celnie wbity w mrowisko nie od dziś jest skutecznym narzędziem siania zamętu i wywoływania konfliktów. A ze względu na zasięg mediów społecznościowych i tempo rozchodzenia się (dez)informacji, takim mrowiskiem są dziś całe narody. Oczywiście w pewnym momencie fałsz może zostać ujawniony, a plotki zdementowane, lecz wtedy na ogół jest już za późno. Negatywne i budzące silne emocje wiadomości rozchodzą się szybciej niż nawet najszczersze i najbardziej przekonujące dementi. A poza tym – zapyta niejedna i niejeden – może to dementi też jest zmanipulowane? Zespół Raz, dwa, trzy pięknie śpiewa, że „trudno nie wierzyć w nic”, lecz w świecie, w którym wszystko może być fejkiem, coraz trudniej uwierzyć w cokolwiek.
Sprawy nie ułatwiają armie botów, wyprowadzające skuteczne ataki na zdrowy rozsądek. Jeszcze niedawno do prowadzenia mniej lub bardziej jawnych kampanii w internecie potrzeba było farmy trolli – setek ludzi pracowicie wystukujących komentarze zgodne z „jedynie słuszną” ideą. Dziś wystarczy model językowy i skrypt, który wygeneruje mrowie unikatowych i bardzo naturalnie wyglądających wpisów pod dowolnym artykułem. Modele językowe są posłuszne, cierpliwe, nie potrzebują kawy ani snu i na żądanie sprawcy będą przekonywać społeczeństwa, że białe jest czarne, symulując vox populi, który jest tylko wielokrotnie odbitym echem wykorzystywanego w złej sprawie algorytmu.
„Słyszałam to na własne uszy!”
Dawno już za nami ten czas w dziejach internetu, kiedy oszuści w e-mailowym przebraniu nigeryjskiego księcia łamaną (i to boleśnie) polszczyzną obiecywali fortunę za pomoc w zrobieniu przelewu. Dziś – gdyby oczywiście jakiś oszust wpadł na taki niebanalny pomysł – książę mógłby zadzwonić osobiście, przedstawić się i poprosić o ów przelew mówiąc głosem idealnie naśladującym timbre naszego ojca (albo, co byłoby jeszcze bardziej niebanalne, matki). Ale żarty na bok. Klonowanie głosu (tzw. vishing od ang. voice phishing) to obecnie kwestia zdobycia kilkunastusekundowej próbki wypowiedzi z TikToka czy nagrania na poczcie głosowej. A potem mechanizm jest prosty: emocjonalny szantaż. Oszust dzwoni i posługując się imitowanym głosem bliskiej osoby przekonuje nas do podjęcia natychmiastowych działań. „Mamo, miałam wypadek, potrzebuję pieniędzy! Szybko, teraz – chlip! – na blika!”. Generowane głosy potrafią już zupełnie nieźle oddawać charakterystyczne drżenie, panikę czy nawet specyficzne dla danej osoby pauzy.
Jak żyć w czasach wielkiej iluzji?
Skoro nie zatrzymamy technologii, pozostaje nauczyć się z nią żyć. Cóż, oszustwo jest stare jak świat, zmieniają się tylko jego metody. Chciwość, żądza władzy, wywoływanie strachu czy nadużywanie zaufania – to zjawiska i mechanizmy znane od tysiącleci. Dziś bezprecedensowa jest głównie skala ich wykorzystywania. Jak się bronić? Przyznam, że to niełatwe zadanie, warto jednak kierować się kilkoma podstawowymi zasadami, a najważniejsza (i najtrudniejsza do przestrzegania) polega na zachowaniu spokoju.
- Higiena informacyjna. Zanim podasz kontrowersyjną informację dalej, postaraj się sprawdzić jej źródło. Jeżeli coś budzi w tobie skrajne emocje (zwłaszcza nienawiść lub strach), prawdopodobnie autorowi informacji właśnie o to chodziło.
- Sprawdzam! Jeśli odbierzesz naglący telefon, obliczony na wywołanie paniki, rozłącz się, zwłaszcza jeśli chodzi o szybkie pieniądze. Zadzwoń do tej osoby na jej prawdziwy numer telefonu, a w razie trudności z dodzwonieniem się (tak, serce bije coraz szybciej…), skontaktuj się z kimś innym, kto pomoże ci w zweryfikowaniu sytuacji.
- Hasło rodzinne. Ta sugestia może kojarzyć się z filmami szpiegowskimi, lecz w dobie klonowania głosów warto ustalić z bliską ci osobą „bezpieczne słowo”, które będziecie znać tylko wy (takim hasłem może być na przykład imię waszego pierwszego pupila). W razie jakichkolwiek wątpliwości, zapytaj o to słowo lub zadaj pytanie o dowolny inny szczegół, nieznany obcej osobie.
Czytelnicy, którzy chcieliby zapoznać się z tą tematyką nieco bliżej ppowinni sięgnąć po książkę Perry’ego Carpentera FAIK. Sztuczna inteligencja w służbie fałszywej rzeczywistości, która ukazała się na początku marca. Autor, który od ponad dwóch dekad bada metody żerowania cyberprzestępców na ludzkich słabościach, rozwija w niej poruszone w tym wpisie zagadnienia, zagląda za kulisy działalności oszustów i pokazuje, jak uodpornić się na ich zakusy.
Niewątpliwie żyjemy w czasach, gdy domorośli socjotechnicy dostali narzędzia, o jakich kilkadziesiąt lat temu nie marzyły nawet agencje wywiadowcze. Remedium, choć może mało techniczne, polega na weryfikowaniu zamiast ślepego reagowania; analizowaniu zamiast podszytego emocjami klikania oraz – a może nawet przede wszystkim – na odbudowie międzyludzkich więzi opartych na bezpośrednim zaufaniu, których nie sposób podrobić. To nie sama technologia jest dziś największym zagrożeniem, lecz nasza skłonność do natychmiastowej, emocjonalnej reakcji. Pamiętajmy też, że jak każde narzędzie, deepfake może służyć również pozytywnym celom – edukacyjnym czy, jak we wstępie do niniejszego wpisu, rozrywkowym.
Zobacz nasze propozycje
-
-
książka
-
ebook
(47,92 zł najniższa cena z 30 dni)
39.53 zł
59.90 zł (-34%) -

