domingo 8 de febrero de 2026 – 18:00 WIB

Jacarta – El desarrollo de la inteligencia artificial (IA) que promueve la eficiencia ha abierto de hecho un nuevo capítulo en la delincuencia digital. Si antes el fraude online era sinónimo de mensajes spam o llamadas telefónicas sospechosas, ahora es posible falsificar el rostro, la voz e incluso la identidad de una persona de forma muy convincente.

Lea también:

Una ola de despidos en el sector tecnológico a principios de 2026, con Amazon y Meta eliminando miles de puestos de trabajo

Este fenómeno ya no es un caso esporádico, sino que se dice que se produjo de forma masiva y organizada.

El análisis realizado por expertos en inteligencia artificial revela que el fraude basado en deepfakes está ocurriendo ahora a escala industrial. La tecnología para crear contenido falso dirigido a personas específicas ya no es costosa ni de difícil acceso.

Lea también:

Cómo la tecnología está cambiando la forma en que la gente lee las noticias

Por el contrario, estas herramientas se consideran baratas, fáciles de usar y se producen en grandes cantidades. Un informe de AI Incident Database enumera más de una docena de ejemplos recientes de “fraude con fines de lucro”.

Los casos varían desde vídeos deepfake de periodistas suecos y del presidente de Chipre, hasta médicos falsos que promocionan productos de crema para la piel. De hecho, se está utilizando un vídeo deepfake para promover el plan de inversión del Primer Ministro de Australia Occidental.

Lea también:

El papel de la IA en la transformación de los métodos de enseñanza en la era digital

Esta tendencia muestra que los estafadores están aprovechando la IA ampliamente disponible para realizar acciones cada vez más específicas. El año pasado, un director financiero de una multinacional de Singapur transfirió casi 500.000 dólares a estafadores después de unirse a una videollamada de la dirección de la empresa. En el Reino Unido, se estima que los consumidores han perdido £9,400 millones de libras esterlinas por fraude en los nueve meses hasta noviembre de 2025.

“Las capacidades técnicas han llegado al punto en que casi cualquiera puede producir contenido falso”, dijo Simon Mylius, investigador del MIT involucrado en un proyecto relacionado con la base de datos de incidentes de IA, citado por The Guardian, el domingo 8 de febrero de 2026.

Calculó que el fraude, las estafas y la manipulación dirigida representaron la mayor proporción de incidentes reportados a la base de datos en 11 de los últimos 12 meses. “Esta tecnología es tan accesible que no existen barreras de entrada”.

El investigador de Harvard Fred Hyding, que estudia el fraude basado en inteligencia artificial, expresó una opinión similar. “La escala está cambiando”, afirmó. “Los costes se han vuelto tan baratos que ahora casi cualquiera puede utilizarlos. Los modelos de IA se están desarrollando muy bien y su velocidad es mucho mayor de lo que muchos expertos esperaban”, afirmó.

Página siguiente

Jason Rebolz, director ejecutivo de la empresa de seguridad de inteligencia artificial Evoque, experimentó un ejemplo de la vida real. Admitió que estuvo a punto de contratar a un candidato para el puesto que utilizó un vídeo deepfake en una entrevista online. “El fondo del vídeo parece muy falso”, dijo. “La apariencia parece realmente antinatural y el sistema tiene problemas para procesar los bordes del cuerpo de la persona. Es como si partes del cuerpo aparecieran y desaparecieran. Incluso la cara parece muy suave en los bordes”.



Enlace de origen