La empresa mexicana Incode Technologies presentó este martes Deepsight, una tecnología de inteligencia artificial diseñada para detectar y bloquear deepfakes, videos e imágenes falsas generadas por IA que se han convertido en una de las amenazas digitales más sofisticadas de 2025. La herramienta, evaluada por la Universidad de Purdue en Estados Unidos, alcanzó la mayor precisión entre los sistemas comerciales disponibles, superando a modelos gubernamentales, académicos y empresariales en la identificación de contenido sintético.
Los deepfakes dejaron de ser una curiosidad tecnológica para transformarse en un arma de fraude masivo. Según un reporte de Endeavor publicado en 2025, América Latina enfrenta un escenario crítico con 40% más de ciberataques semanales que el promedio global, mientras que el 71% de las empresas identifica el fraude digital como su principal amenaza. En países como Argentina, México y Brasil, siete de cada diez usuarios admiten haber sido víctimas de algún tipo de estafa digital, ubicando a la región entre las más vulnerables del mundo.
El problema crece de manera exponencial. Los ataques con deepfakes dirigidos a procesos de verificación remota aumentaron hasta siete veces en el último año. En Brasil, específicamente, el crecimiento de deepfakes e identidades sintéticas alcanzó un alarmante 126% entre 2024 y 2025, según datos de Sumsub. El país sudamericano concentra casi el 39% de todos los deepfakes registrados en América Latina, mientras que en otros territorios como Guatemala, México, Panamá y Suriname, el incremento osciló entre 400% y 500%.
La democratización de la inteligencia artificial generativa eliminó las barreras técnicas que antes limitaban la producción de estos contenidos falsos. Hoy, con apenas unos segundos de audio o un puñado de fotografías, cualquier persona puede crear videos convincentes que imitan rostros, voces y gestos humanos con precisión casi perfecta. Esta accesibilidad desplazó el problema desde los laboratorios de investigación hasta la operación diaria de bancos, fintechs, plataformas de comercio electrónico y sistemas gubernamentales.
Ricardo Amper, fundador y CEO de Incode, explicó que cuando la identidad puede falsificarse fácilmente, todo el sistema se quiebra. Contratos, transacciones financieras, decisiones corporativas y reputaciones personales se construyen sobre una realidad que puede ser manipulada en cuestión de minutos. Los ciberdelincuentes aprovecharon la disparidad entre la sofisticación de los modelos generativos y la fragilidad de los sistemas tradicionales de verificación de identidad.
Las modalidades de fraude evolucionaron rápidamente. Los atacantes crean identidades sintéticas completas —rostros que no pertenecen a ninguna persona real, documentos manipulados con precisión— diseñadas específicamente para eludir los controles KYC (Conozca a su Cliente) que utilizan las instituciones financieras. Otro método en auge es el enmascaramiento en vivo: durante un proceso de verificación, el estafador proyecta el rostro de otra persona sobre su propia imagen mediante filtros de deepfake, logrando que el sistema “vea” a alguien más mientras él mueve la cabeza o parpadea naturalmente.
“Determinar si alguien es real se está convirtiendo en uno de los desafíos tecnológicos más importantes de la era digital”
Deepsight opera con una arquitectura multimodal que analiza video, movimiento, comportamiento del usuario y datos de profundidad en menos de 100 milisegundos. La tecnología se estructura en tres capas de defensa simultáneas que trabajan de manera coordinada. La primera capa, denominada de percepción, utiliza modelos de IA especializados para examinar miles de puntos de datos por fotograma, buscando inconsistencias imperceptibles al ojo humano que delatan la presencia de contenido generado por IA.
La segunda capa se enfoca en la integridad del dispositivo. En lugar de analizar el rostro del usuario, valida que la cámara y el flujo de datos provengan de hardware físico confiable y no de una cámara virtual, un emulador o una fuente inyectada. Esta defensa resulta crucial porque los criminales instalan “cámaras virtuales” en dispositivos modificados que no muestran lo que ve la cámara física, sino el flujo de un deepfake preproducido o generado en tiempo real.
La tercera capa analiza el comportamiento. Identifica microanomalías en la forma en que el usuario interactúa en tiempo real: patrones de movimiento, tiempos de reacción, ritmo de los gestos y otras señales sutiles que los deepfakes y bots no pueden replicar con precisión orgánica. Muchas de estas variaciones son invisibles a simple vista, pero se vuelven evidentes para algoritmos entrenados específicamente en detectar estas inconsistencias.
“Evaluamos nueve de los sistemas comerciales de detección de deepfakes más utilizados y el detector de Incode alcanzó la mayor precisión en la identificación de muestras falsas. Este resultado sugiere que Deepsight demuestra una mayor solidez y fiabilidad en escenarios difíciles del mundo real”, detalló Shu Hu, profesor adjunto de la Facultad de Informática Aplicada y Creativa de la Universidad de Purdue.
El estudio de Purdue, titulado “¿Adecuado para su propósito? Detección de deepfakes en el mundo real”, comparó Deepsight con nueve sistemas comerciales líderes. La tecnología de Incode no solo obtuvo la mayor precisión, sino también la menor tasa de falsos positivos. Este último punto resulta crítico para empresas que necesitan equilibrar seguridad con experiencia de usuario, ya que bloquear clientes legítimos genera frustración y abandono de servicios.
Las pruebas internas de Incode revelaron que Deepsight es hasta diez veces más preciso que revisores humanos capacitados. Esta evidencia confirma que la defensa viable contra deepfakes sofisticados ya no puede limitarse a la supervisión humana, sino que requiere de otra inteligencia artificial diseñada específicamente para este fin. Roman Karachinsky, director de Producto de Incode, advirtió que determinar si alguien es real se está convirtiendo en uno de los desafíos tecnológicos más importantes de la era digital.
La solución no requiere instalación física ni cambios en la infraestructura del cliente. Opera dentro de la plataforma de identidad de Incode, integrándose de forma nativa en los flujos existentes de verificación. Es invisible para el usuario final y se activa con un solo clic desde la configuración del cliente. Además, funciona en cualquier dispositivo porque analiza tanto la cámara como la integridad del hardware y software durante el proceso de onboarding o autenticación.
“Cuando la identidad puede falsificarse, todo se rompe: contratos, pruebas, reputaciones y decisiones”
Deepsight ya está siendo implementado por empresas de alto perfil. TikTok, PNC Bank, Scotiabank y Nubank utilizan la tecnología para proteger a sus usuarios. Hasta la fecha, el sistema ha resguardado más de seis millones de sesiones de identidad en vivo, bloqueando intentos de fraude cada vez más sofisticados. En el caso de DaVivienda, el uso de tecnología de Incode permitió reducir los falsos negativos del 12% al 5%, mientras que el fraude disminuyó del 0.5% al 0.1%.
La herramienta se aplica en procesos críticos de negocio: verificaciones KYC durante la incorporación de nuevos clientes, esquemas de verificación escalonada para operaciones de alto riesgo, autenticación continua en sesiones sensibles y verificación de empleados o edad para cumplir con regulaciones. Al integrarse como una capa de seguridad en cada punto del ciclo de vida de la identidad digital, Deepsight construye un cordón sanitario frente a deepfakes y ataques de IA generativa.
El contexto latinoamericano agrava la urgencia. Las organizaciones en México y la región enfrentan más de 2.800 ciberataques semanales, según el reporte “Ciberseguridad, habilitador de confianza y competitividad” realizado por Incode y Endeavor. Un estudio de Ironscales reveló que el 85% de las empresas enfrentó al menos un incidente con deepfakes en el último año, y más de la mitad reportó pérdidas superiores a 280.000 dólares por ataque.
La temporada de fin de año multiplica los riesgos. Un informe de la Universidad de San Buenaventura en Bogotá aseguró que las estafas con voces clonadas mediante IA pueden incrementarse hasta un 30% en diciembre. Los delincuentes aprovechan el contexto de las fiestas, cuando aumentan las llamadas asociadas a viajes, envíos, compras y reuniones familiares. Un audio inesperado que imita la voz de un familiar o jefe puede pasar desapercibido en medio de la rutina acelerada de cierre de año.
Gartner informó que el 62% de las compañías recibió intentos de fraude con deepfakes y que en el 44% de los casos se emplearon audios sintéticos que imitan voces humanas. McAfee, por su parte, indicó que uno de cada diez individuos fue víctima directa de una estafa con voz clonada y que el 67% de los afectados perdió dinero al actuar bajo presión emocional.
“Los deepfakes dejaron de ser una curiosidad: hoy son un arma de fraude masiva. Cuando la identidad puede falsificarse, todo se rompe. Deepsight restaura la confianza al garantizar que cada imagen, video o documento sea real, no sintético”, afirmó Ricardo Amper.
El lanzamiento de Deepsight refuerza la visión de Incode de construir el futuro de la identidad digital. La compañía también trabaja en Agentic Identity, una tecnología que permitirá a las personas verificadas interactuar de forma segura con agentes de IA que actúan en su nombre. Esta propuesta anticipa un escenario donde la verificación de humanidad será tan crítica como la verificación de identidad: saber no solo quién es alguien, sino también si ese alguien es real o una construcción sintética.
La batalla entre deepfakes y tecnologías de detección apenas comienza. Experian, una de las principales agencias de información crediticia del mundo, ya integró Deepsight para contrarrestar fraudes generados por IA, que el 72% de los líderes empresariales espera que aumenten significativamente en 2026. En paralelo, proyecciones de Sumsub anticipan que, en 2026, agentes de fraude impulsados por IA serán capaces de ejecutar estafas completas de punta a punta, desde la creación de identidades falsas hasta el proceso de verificación en tiempo real.
Las organizaciones enfrentan una encrucijada. Por un lado, necesitan acelerar la digitalización de sus servicios para mantenerse competitivas. Por otro, deben fortalecer sus defensas contra amenazas que evolucionan a velocidad exponencial. La inversión en ciberseguridad dejó de ser un gasto opcional para convertirse en una condición de supervivencia. Los sistemas de verificación de identidad basados en selfies simples o preguntas de seguridad ya no resultan suficientes frente a adversarios equipados con inteligencia artificial generativa.
La regulación también comienza a responder. En Colombia, la Ley 2502 de 2025 endureció las penas por falsedad personal cuando se emplea inteligencia artificial para suplantación de identidad. Australia prohibió el uso de redes sociales a menores, obligando a las compañías a implementar sistemas de verificación de edad más robustos. La Unión Europea, por su parte, está evaluando marcos regulatorios más estrictos para plataformas que alojen contenido generado por IA sin marcas de agua o etiquetas de identificación.
Amper concluyó que la responsabilidad de preservar la confianza digital recae en quienes desarrollan estas tecnologías. La IA transformará la manera en que las personas viven, trabajan y se conectan. Defender la realidad misma se convierte entonces en una misión que trasciende lo comercial para instalarse en el territorio de la ética tecnológica y la protección de los derechos fundamentales en la era digital.
Enlaces de interés
- Incode Technologies – Plataforma oficial de Incode, líder en verificación de identidad y prevención de fraude
- Universidad de Purdue – Institución que evaluó Deepsight en el estudio “Detección de deepfakes en el mundo real”
Palabras clave: Incode Deepsight, deepfakes, inteligencia artificial, fraude digital, ciberseguridad, América Latina, verificación de identidad, identidades sintéticas, Universidad de Purdue, ciberataques, IA generativa, reconocimiento facial, biometría, fraude financiero, TikTok, Scotiabank, Nubank, México tecnología, Brasil deepfakes, Argentina ciberseguridad
