
Co pięć minut gdzieś na świecie dochodzi do ataku z wykorzystaniem deepfake’ów.
Ofiary takich ataków są wszędzie. W Hongkongu pracownik działu finansów przelał 25 milionów dolarów po wideorozmowie z osobą, która wyglądała jak dyrektor finansowy jego firmy — tyle że wszyscy uczestnicy rozmowy byli nieprawdziwi. We Francji oszuści przekonali kobietę, że umawia się z Bradem Pittem.
Prawie 80% dorosłych osób nie potrafi już odróżnić, czy film jest prawdziwy czy fejkowy. Taka jest nowa rzeczywistość oszustw w cyfrowym świecie. To, co początkowo było jedynie ciekawą nowinką, przerodziło się w kryzys zagrażający fundamentom naszej komunikacji. Gdy czyjaś twarz może stać się twarzą każdej innej osoby, gdy głos można sklonować na podstawie kilku sekund nagrania i nie można już ufać nawet wideorozmowom na żywo, pojawia się niepokojące pytanie: jak możemy jeszcze czemukolwiek lub komukolwiek wierzyć?
Odpowiedź na to egzystencjalne pytanie ukształtuje przyszłość komunikacji międzludzkiej w erze cyfrowej.
Epidemia deepfake'ów
Liczby ukazują przejmujący obraz. Według „The Wall Street Journal” w zeszłym roku w Stanach Zjednoczonych odnotowano ponad 105 000 ataków przy użyciu deepfake'ów. Technologia stojąca za tymi atakami stała się szokująco łatwo dostępna. Coś, co niegdyś wymagało hollywoodzkiego budżetu i zespołu specjalistów, dziś może być użyte praktycznie przez każdego, kto ma urządzenie i dostęp do internetu.
Ataki te nie wybierają ofiar. Oszuści, wykorzystując deepfake'i, podszywają się pod celebrytów w mediach społecznościowych, by wyłudzić miliony na fałszywe inwestycje. Po katastrofach naturalnych przestępcy używają wygenerowanych przez AI apeli o pomoc z wykorzystaniem wizerunków pracowników organizacji pomocowych. Polityczne deepfake'i przedstawiające kandydatów mówiących rzeczy, których nigdy nie powiedzieli rozprzestrzeniają się w błyskawicznym tempie.
Instytucje finansowe stoją w obliczu szczególnie poważnego kryzysu: w 2023 roku liczba oszustw związanych z deepfake’ami wzrosła o 3000%, a średnie straty firm sięgały 500 000 dolarów na każde takie zdarzenie. Równie mocno ucierpiała także branża finansów cyfrowych—w 2024 roku deepfake’i oparte na AI odpowiadały za 40% wszystkich dużych oszustw kryptowalutowych, przyczyniając się do strat w wysokości 4,6 miliarda dolarów w skali globalnej.
Jak dowód człowieczeństwa osłabia działanie deepfake'ów
A gdyby tak można było ograniczyć skuteczność deepfake'ów? Technologia dowodu człowieczeństwa daje w tym zakresie obiecujące narzędzie. Umożliwiając kryptograficzne potwierdzenie, że wchodzisz w interakcję z prawdziwym, unikalnym człowiekiem, technologia ta trafia w samo sedno problemu. Nie analizuje, czy dana treść jest fałszywa, tylko upewnia się, że jej źródło jest prawdziwe.
Możliwości zastosowania dowodu człowieczeństwa są przełomowe:
- Bezpieczna komunikacja: Potwierdź, że inny uczestnik wideorozmowy jest faktycznie prawdziwym człowiekiem.
- Zaufane transakcje: Upewnij się, że ważne rozmowy odbywają się z udziałem prawdziwego człowieka, a nie deepfake'a wygenerowanego przez sztuczną inteligencję.
- Autentyczne treści: Daj twórcom możliwość kryptograficznego podpisywania swoich prac, aby od razu było wiadomo, które materiały są autentyczne.
W przeciwieństwie do systemów, które można sfałszować lub baz danych, do których można się włamać, potwierdzenie dowodu człowieczeństwa odbywa się za pomocą chroniącej prywatność kryptografii. Nie ma żadnej centralnej bazy danych ani śledzenia w sieci— jest tylko matematyczny dowód, że za danym działaniem stoi prawdziwy, unikalny człowiek.
Odzyskanie naszej cyfrowej przyszłości
World oferuje sposób na większą świadomość w interakcjach między ludźmi a sztuczną inteligencją. Technologia Deep Face w tym protokole, wspierana przez World ID, umożliwia weryfikację ludzkiej tożsamości w czasie rzeczywistym podczas wideorozmów, dając pewność, że osoba widoczna na ekranie jest prawdziwym człowiekiem.
Deepfake’i stawiają przed społeczeństwem wybór dalszej drogi. Jedna droga prowadzi do świata nieustannego zwątpienia, gdzie zobaczyć nie znaczy już uwierzyć, a zaufanie zanika. Druga droga otwiera przyszłość, w której pewnie możemy wchodzić w cyfrowe relacje, wiedząc, że są one tak samo autentyczne, jak te w świecie rzeczywistym.
Wybór wydaje się oczywisty, ale zmiana nie wydarzy się samoistnie. Wymaga przyznania, że stare paradygmaty, takie jak wykrywanie, moderacja czy działania po fakcie — choć niezbędne, są niewystarczające. Potrzebujemy zasadniczej modernizacji naszej infrastruktury cyfrowej. Dowód człowieczeństwa może dać nam sposób na powstrzymywanie deepfake’ów, zanim wyrządzą one jeszcze większe szkody.
Dowiedz się więcej
Aby być na bieżąco z najnowszymi informacjami ze świata World, a także innymi ekscytującymi wiadomościami i ogłoszeniami, odwiedź stronę World lub zasubskrybuj blog poniżej.
Możesz również dołączyć do codziennych rozmów na wszystkich kanałach społecznościowych World lub uzyskać dodatkowe ważne informacje o projekcie, czytając Białą księgę protokołu World.
Powiązane artykuły

Understanding World ·
What is World? FAQs About Proof of Human, Privacy and the Real Human Network

Understanding World ·
Policy ·
The economic benefits of proof of human

Understanding World ·
Najczęściej Zadawane Pytania dotyczące World ID

Understanding World ·