Tecnología

A medida que la IA generativa se vuelve más sofisticada, es más difícil distinguir lo real del profundo

Crédito: dominio público Unsplash/CC0

En la era de la inteligencia artificial generativa (Genai), la frase “lo creeré cuando lo veo” ya no se encuentra. Genai no solo puede generar representaciones manipuladas de personas, sino que también se puede utilizar para generar personas y escenarios completamente ficticios.

Las herramientas de Genai son asequibles y accesibles para todos, y las imágenes generadas por IA se están volviendo omnipresentes. Si ha estado desplazando a través de sus noticias o feeds de Instagram, es probable que se haya desplazado más allá de una imagen generada por IA sin siquiera darse cuenta.

Como investigador de informática y Ph.D. Candidato de la Universidad de Waterloo, me preocupa cada vez más mi propia incapacidad para discernir lo que es real de lo que es generado por IA.

Mi equipo de investigación realizó una encuesta en la que se pidió a casi 300 participantes que clasificaran un conjunto de imágenes como reales o falsas. La precisión de clasificación promedio de los participantes fue del 61% en 2022. Los participantes tenían más probabilidades de clasificar correctamente las imágenes reales que las falsas. Es probable que la precisión sea mucho menor hoy gracias a la tecnología Genai que mejora rápidamente.

También analizamos sus respuestas utilizando minería de texto y extracción de palabras clave para aprender las justificaciones comunes que los participantes proporcionaron para sus clasificaciones. Fue inmediatamente evidente que, en una imagen generada, los ojos de una persona se consideraban el indicador revelador de que la imagen probablemente estaba generada por IA. AI también luchó por producir dientes, orejas y cabello realistas.

Pero estas herramientas están mejorando constantemente. Los signos reveladores que podríamos usar una vez para detectar imágenes generadas por AI ya no son confiables.

Mejora de imágenes

Los investigadores comenzaron a explorar el uso de Gans para la síntesis de imagen y video en 2014. El documento seminal “redes adversas generativas” introdujo el proceso adversario de Gans. Aunque este documento no menciona DeepFakes, fue el trampolín para Deepfakes basados ​​en GaN.

Algunos primeros ejemplos de arte de Genai que usaron Gans incluyen las imágenes “Deepdream” creadas por el ingeniero de Google Alexander Mordvintsev en 2015.

Pero en 2017, el término “Deepfake” nació oficialmente después de un usuario de Reddit, cuyo nombre de usuario era “Deepfakes”, usó Gans para generar pornografía sintética de celebridades.

En 2019, el ingeniero de software Philip Wang creó el sitio web “ThisPersondoesnotexist”, que utilizó Gans para generar imágenes de personas de aspecto realista. Ese mismo año, el lanzamiento del Deepfake Detection Challenge, que buscó nuevos y mejorados modelos de detección de Deepfake, atrajo una atención generalizada y condujo al aumento de Deepfakes.

Aproximadamente una década después, uno de los autores del papel de “redes adversas generativas”, el científico informático canadiense Yoshua Bengio, compartió sus preocupaciones sobre la necesidad de regular la IA debido a los peligros potenciales que tal tecnología podría representar para la humanidad.

Bengio y otros Trailblazers de IA firmaron una carta abierta en 2024, pidiendo una mejor regulación de Deepfake. También dirigió el primer informe internacional de seguridad de IA, que se publicó a principios de 2025.

Hao Li, Pioneer de Deepfake y uno de los mejores artistas de Deepfake del mundo, admitieron de manera inquietantemente que recuerda la famosa cita de Robert Oppenheimer “Ahora me convertiré en la muerte”:

“Esto se está desarrollando más rápidamente de lo que pensaba. Pronto, llegará al punto en que ya no hay forma de que podamos detectar ‘DeepFakes’, por lo que tenemos que ver otros tipos de soluciones”.

La nueva desinformación

Las grandes empresas tecnológicas han estado alentando el desarrollo de algoritmos que pueden detectar defagos profundos. Estos algoritmos comúnmente buscan los siguientes signos para determinar si el contenido es un defake profundo:

Número de palabras pronunciadas por oración, o la tasa de habla (la velocidad de habla humana promedio es de 120-150 palabras por minuto), expresiones faciales, basadas en coordenadas conocidas de los ojos humanos, cejas, nariz, labios, dientes y contornos faciales, reflexiones en los ojos inferiores y influyentes de la baja o influyente de los ojos. Píxeles en comparación con las imágenes tomadas por una cámara HDR.

Pero incluso estos algoritmos tradicionales de detección de Deepfake sufren varios inconvenientes. Por lo general, están entrenados en imágenes de alta resolución, por lo que pueden fallar en detectar imágenes de vigilancia de baja resolución o cuando el sujeto está mal iluminado o posa de una manera no reconocida.

A pesar de los intentos endeble e inadecuados de regulación, los jugadores rebeldes continúan usando deffakes y síntesis de IA de texto a imagen para fines nefastos. Las consecuencias de este uso no regulado van desde la desestabilización política a nivel nacional y global hasta la destrucción de la reputación causada por ataques muy personales.

La desinformación no es nueva, pero los modos de propagación de ella cambian constantemente. Los defectos profundos se pueden usar no solo para difundir la desinformación, es decir, para postular que algo falso es cierto, sino también para crear una negación plausible y postular que algo verdadero es falso.

Es seguro decir que en el mundo de hoy, ver nunca volverá a creer. Lo que alguna vez podría haber sido evidencia irrefutable podría ser una imagen generada por IA.

Proporcionado por la conversación

Este artículo se vuelve a publicar de la conversación bajo una licencia Creative Commons. Lea el artículo original.

Cita: A medida que la IA generativa se vuelve más sofisticada, es más difícil distinguir lo real de Deepfake (2025, 26 de marzo) recuperado el 26 de marzo de 2025 de https://techxplore.com/news/2025-03-2

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.

Back to top button