Narastająca fala cyfrowych oszustw

8 października 2025 3 Minuty Czytania

Babcia z Nowej Fundlandii usłyszała spanikowany głos wnuka, błagający o kaucję po spowodowaniu wypadku samochodowego. Przelała 50 000 USD, dopiero potem dowiedziała się, że jej prawdziwy wnuk był bezpieczny w pracy. Ale ten głos? To był klon AI stworzony przez AI na podstawie jego filmów znajdujących się w mediach społecznościowych. 

W tym samym tygodniu inne osoby z jej społeczności straciły 200 000 USD w wyniku identycznych oszustw. W 2023 roku ponad 100 000 Amerykanów w wieku powyżej 60 lat zgłosiło straty z tytułu oszustw na kwotę 3,4 miliarda USD — o 14% więcej niż rok wcześniej. Ten gwałtowny wzrost oznacza fundamentalną zmianę w zagrożeniach cyberbezpieczeństwa: od kradzieży danych uwierzytelniających po kradzież samej ludzkiej tożsamości.

image

Gdzie obecnie zawodzą zabezpieczenia przed oszustwami

Wykorzystanie publicznych zasobów przez boty

W stanie Kalifornia wykryto ponad 50 000 fałszywych wniosków złożonych przez boty o pomoc finansową dla studentów w 2023 r. Portal rozliczeń pozwów Thomson Reuters został sparaliżowany przez automatyczne roszczenia, blokując osoby rzeczywiście poszkodowane. Od pomocy po klęskach żywiołowych po świadczenia rządowe, armie botów systematycznie wysysają zasoby przeznaczone dla prawdziwych ludzi.

Syntetyczne podszywanie się

Klonowanie głosu zagraża każdemu, kto wrzucił wideo do sieci. Prawniczka z Filadelfii była o krok od wysłania tysięcy dolarów kaucji, gdy oszuści użyli AI, by podszyć się pod trzy osoby: jej „syna”, „obrońcę z urzędu” i „urzędnika sądowego”. W Hongkongu firma straciła 25 milionów dolarów, gdy pracownicy dołączyli do wideo rozmowy z deepfake’owymi wersjami swojego CFO i współpracowników. W 2023 roku próby oszustw deepfake'owych wzrosły o 3 000%, odtąd każda rozmowa i wideo budzi wątpliwości: czy to na pewno ta osoba, za którą się podaje?

Korupcja sieci zaufania przez fałszywe profile

Aplikacje randkowe zgłaszają 10–15% fałszywych profili na swoich platformach. Sieci zawodowe walczą z CV generowanymi przez AI. Platformy z recenzjami zmagają się z kampaniami botów, które mogą zniszczyć firmy z dnia na dzień. Nawet opinii publicznej nie można ufać. Gdy Cracker Barrel zmienił logo w sierpniu 2025 roku, 44,5% początkowego oburzenia w mediach społecznościowych było generowane przez boty. Automatyczne konta podchwyciły autentyczną krytykę i wykreowały kontrowersję, która zbiła ceny akcji. Jeśli opinia publiczna może być syntetyczna, to jak firmy albo społeczności mają podejmować realne decyzje?

Manipulacja procesem demokratycznym

Armie botów zalewają publiczne systemy komentarzy, manipulują ankietami i tworzą ruchy wyglądające na oddolne. Przeciążają systemy regulacyjne i petycyjne sztucznym konsensusem. Kiedy jedna osoba posiadająca farmę botów może symulować tysiące głosów, instytucje demokratyczne oparte na zasadzie „jedna osoba, jeden głos” ulegają rozpadowi.

Synteza i przejmowanie tożsamości

Przestępcy tworzą syntetyczne tożsamości, mieszając prawdziwe i fałszywe dane, by budować historie kredytowe, które przez lata działają niezauważone. Systemy odzyskiwania kont stają się wektorami ataków, gdy inżynieria społeczna połączona z syntetycznymi mediami zamienia „zapomniałem hasło” w „skradzione życie”.

Dlaczego obecne zabezpieczenia zawodzą

Tradycyjne zabezpieczenia pytają: „Masz właściwe hasło?” albo „Możesz odebrać tego SMS-a?” Ale te systemy zakładają, że już jesteś człowiekiem. Zabezpieczają drzwi, ale nigdy nie sprawdzają, czy przechodzi przez nie osoba, czy zaawansowany program. Rozwiązanie wymaga fundamentalnej zmiany: ustanowienia dowodu unikalnej ludzkiej tożsamości na warstwie podstawowej, a nie jako dodatku. To oznacza:

  • Weryfikację z zachowaniem prywatności – Udowodnij, że jesteś unikalnym człowiekiem bez ujawniania danych osobowych. Kryptograficzne dowody potwierdzają człowieczeństwo bez inwigilacji.
  • Uniwersalną interoperacyjność - Jedna weryfikacja dla wszystkich usług, eliminująca powtarzające się kontrole i zapobiegająca śledzeniu między usługami.
  • Odporność na oszustwa – W przeciwieństwie do haseł, które można ukraść, Dowód Człowieczeństwa tworzy niemożliwą do podrobienia weryfikację, której nie da się przenieść ani sztucznie wytworzyć.
  • Globalną dostępność – Musi działać dla każdego, wszędzie, niezależnie od urządzenia czy poziomu umiejętności technicznych.
image

Budujemy sieć prawdziwych ludzi, żeby zwiększyć zaufanie w internecie

World ID ucieleśnia te zasady dzięki technologii Dowodu Człowieczeństwa. Gdy zweryfikujesz się jako unikalny człowiek raz, możesz korzystać z różnych usług, mając pewność, że każdy inny uczestnik jest prawdziwym człowiekiem.

Wraz z przyspieszaniem rozwoju sztucznej inteligencji okno czasowe na wdrożenie solidnej weryfikacji człowieka szybko się zawęża. Organizacje, które wdrożą teraz dowód człowieczeństwa, uzyskają pozycję, by obsługiwać realnych klientów, chronić prawdziwych użytkowników i utrzymywać prawdziwe zaufanie. W erze, w której maszyny potrafią doskonale naśladować ludzi, udowodnienie naszej ludzkiej tożsamości staje się fundamentem każdej znaczącej interakcji online.

Październik jest Miesiącem Świadomości Cyberbezpieczeństwa. Więcej informacji na temat budowania bardziej ludzkiego Internetu można znaleźć na stronie world.org.