De la duda a la confianza: cómo la prueba de humanidad ayuda a combatir los deepfakes

2 de septiembre de 2025 Lectura de 3 minutos
Una persona participando en una conversación, destacando la importancia de la confianza para combatir los deepfakes.

Cada cinco minutos, en alguna parte del mundo, ocurre un ataque de deepfake.

Las víctimas están en todas partes. En Hong Kong, un trabajador financiero transfirió 25 millones de dólares después de una videollamada con quien parecía ser el CFO de su empresa... pero resulta que todos los participantes en la llamada eran falsos. En Francia, una mujer fue engañada y le hicieron creen que estaba saliendo con Brad Pitt.

Casi el 80% de los adultos ya no puede distinguir si un video es real o falso. Esta es la nueva realidad del engaño digital. Lo que comenzó como una novedad se ha convertido en una crisis que amenaza la base misma de cómo nos conectamos. Cuando el rostro de cualquiera puede convertirse en el de otra persona, cuando las voces pueden clonarse en segundos y ni siquiera se puede confiar en las videollamadas en vivo, nos queda una pregunta inquietante: ¿cómo podemos creer en algo —o en alguien— ahora?

La respuesta a esta cuestión existencial dará forma al futuro de la interacción humana en la era digital.

La explosión de los deepfakes

Las cifras muestran una situación alarmante. The Wall Street Journal informa que en Estados Unidos hubo más de 105,000 ataques de deepfake el año pasado. La tecnología detrás de estos ataques se ha vuelto devastadoramente accesible. Lo que antes requería presupuestos dignos de Hollywood y equipos de especialistas ahora está al alcance de cualquiera con un dispositivo y conexión a internet.

El ataque no discrimina. Los estafadores utilizan respaldos de celebridades generados por deepfake para robar millones mediante esquemas de inversión en redes sociales. Tras desastres naturales, los estafadores difunden mensajes generados por IA usando los rostros de trabajadores humanitarios. Los deepfakes políticos se propagan como fuego, mostrando a candidatos diciendo cosas que nunca dijeron.

Las instituciones financieras enfrentan una crisis especialmente grave: el fraude relacionado con deepfakes aumentó un 3,000% en 2023, con pérdidas empresariales promedio de 500,000 dólares por incidente. La industria financiera digital se ha visto igualmente afectada severamente, con deepfakes impulsados por IA generando el 40% de todas las grandes estafas de cripto en 2024, contribuyendo a pérdidas globales de 4600 millones de dólares.

Cómo la prueba de humanidad combate a los deepfakes

¿Qué pasaría si pudiéramos reducir la eficacia de los deepfakes? La tecnología de prueba de humanidad ofrece una herramienta prometedora. Al establecer una prueba criptográfica de que estás interactuando con un ser humano único y real, esta tecnología aborda la raíz del problema. No intenta determinar si el contenido es falso; garantiza que la fuente es real desde el principio.

Las aplicaciones de la prueba de humanidad son transformadoras:

  • Comunicaciones seguras: Verificar que la persona en la videollamada sea realmente un ser humano.
  • Transacciones confiables: Garantizar que las conversaciones importantes se lleven a cabo con un ser humano y no con un deepfake de IA.
  • Contenido auténtico: Permitir que los creadores firmen criptográficamente su trabajo, dejando claro de inmediato qué es genuino.

A diferencia de los sistemas que pueden ser manipulados o bases de datos que pueden ser vulneradas, la verificación de la prueba de humanidad ocurre mediante criptografía que preserva la privacidad. No hay una base de datos central ni rastreo online, solo una prueba matemática de que detrás de una acción hay un ser humano único y real.

Recuperando nuestro futuro digital

World ofrece una manera de tener mayor conocimiento respecto a la interacción entre humanos y actores sintéticos. La tecnología Deep Face del protocolo, impulsada por World ID, provee verificación de humanidad en tiempo real durante videollamadas —garantizando que la persona que ves en pantalla sea realmente un ser humano—.

Los deepfakes representan una encrucijada para la sociedad. Por un camino está un mundo de duda perpetua, donde ver ya no equivale a creer y la confianza desaparece. Por el otro, un futuro donde podamos interactuar con confianza, sabiendo que nuestras conexiones digitales son tan reales como las físicas.

La elección parece obvia, pero la transición no será automática. Requiere reconocer que los antiguos paradigmas —detección, moderación e intervención posterior— son necesarios, pero no suficientes. Necesitamos una actualización fundamental de nuestra infraestructura digital. La prueba de humanidad puede brindarnos un camino para prevenir los deepfakes antes de que causen daños aún mayores.

Conocer más

Para mantenerse informado sobre lo más reciente de World, junto con otras noticias emocionantes y comunicados, visita el sitio web de World o suscríbete al blog a continuación.

También puedes unirte a la conversación diaria en todos los canales de redes sociales de World, o conocer información importante adicional sobre el proyecto leyendo el Whitepaper del protocolo World.