30 de noviembre de 2025
Investigan una estafa digital con inteligencia artificial que usó la imagen de Alejandro Fantino para captar víctimas

Ocurrió en Chubut. El denunciante invirtió en una plataforma creyendo que era confiable y le terminaron robando más de 200 mil pesos
Las autoridades detectaron que el ardid se apoyó en videos y recursos digitales modificados con inteligencia artificial para simular presentaciones de Fantino, una maniobra clave para ganar la confianza de la víctima y persuadirla de invertir. La causa fue calificada como delito de estafa en carácter de autor y/o partícipe necesario y ya tuvo una audiencia preliminar, donde Pablo Sánchez, defensor del principal acusado se presentó y no objetó la carátula.
Diversas señales pueden alertar sobre la manipulación digital en materiales audiovisuales. El Instituto Nacional de Ciberseguridad de España (INCIBE) aconseja desconfiar de videos o imágenes que utilicen titulares alarmantes o que busquen apelar a las emociones para provocar una reacción inmediata.
Además, la examinación atenta del rostro, la piel y la coherencia de los rasgos resulta clave. Según el INCIBE, “el desenfoque alrededor del personaje o los movimientos poco naturales son pistas para sospechar un deepfake”.
El análisis manual es indispensable, pero existen soluciones tecnológicas efectivas. Herramientas de detección apoyadas en IA pueden analizar el lenguaje, el tono, los patrones y la veracidad de imágenes, videos y mensajes.
Asimismo, el asistente virtual Genie de la empresa puede leer mensajes, analizar videos y sugerir si un contenido es una estafa, señalando los factores que llevaron a esa conclusión.
COMPARTIR:
Comentarios
Aun no hay comentarios, sé el primero en escribir uno!



