Tecnología

Los pasos en falso de Apple destacan los riesgos de la producción de IA que producen titulares automatizados, dice el investigador

Crédito: dominio público Unsplash/CC0

“Luigi Mangione se dispara a sí mismo”, se lee en el titular de las noticias de la BBC.

Excepto que Mangione, el hombre acusado de asesinar al presidente ejecutivo de UnitedHealthcare, Brian Thompson, no había hecho tal cosa. Y tampoco la BBC informó eso, pero ese era el titular que Apple Intelligence mostraba a sus usuarios como parte de un resumen de notificaciones.

Fue uno de los muchos errores de alto perfil cometidos por el software artificial con inteligencia que llevó al gigante tecnológico a suspender la característica de notificaciones en la inteligencia de Apple en relación con las categorías de noticias y entretenimiento.

Anees Baqir dice que la propagación inadvertida de la información errónea de dicha fuente de IA “planteó un riesgo significativo al erosionar la confianza pública”.

El profesor asistente de ciencias de datos en la Northeastern University de Londres, que investiga la información errónea en línea, dice que los errores como los que realizaban la inteligencia de Apple probablemente “crearían confusión” y podrían haber llevado a que los consumidores de noticias duden de las marcas de medios que anteriormente confiaban.

“Imagine lo que esto podría hacer a la opinión de la gente si hay contenido de información errónea proveniente de una fuente de noticias de muy alto perfil que generalmente se considera una fuente de noticias confiable”, dijo Baqir. “Eso podría ser realmente peligroso, en mi opinión”.

El episodio con Apple Intelligence provocó un debate más amplio en Gran Bretaña sobre si los softwares generativos generativos de IA generativos disponibles públicamente son capaces de resumir y comprender con precisión los artículos de noticias.

La directora ejecutiva de BBC News, Deborah Turness, dijo que, mientras que AI brinda “oportunidades interminables”, las compañías que desarrollan las herramientas están actualmente “jugando con fuego”.

Hay razones por las cuales la IA generativa como la inteligencia de Apple puede no siempre hacerlo bien cuando se trata de manejar noticias, dice Mariana Macedo, científica de datos de Northeastern.

Al desarrollar IA generativa, los “procesos no son deterministas, por lo que tienen cierta estocasticidad”, dice el profesor asistente con sede en Londres, lo que significa que puede haber una aleatoriedad en el resultado.

“Las cosas se pueden escribir de una manera que no puedes predecir”, explica. “Es como cuando mencionas a un niño. Cuando educas a un niño, los educas con valores, con reglas, con instrucciones, y luego dices:” Ahora vive tu vida “.

“El niño sabe lo que va a ser correcto o incorrecto más o menos, pero el niño no lo sabe todo. El niño no tiene toda la experiencia o el conocimiento para reaccionar y crear nuevas acciones de manera perfecta. Es lo mismo con la IA y los algoritmos”.

Macedo dice que el problema con las noticias y el aprendizaje de la IA es que las noticias son principalmente sobre cosas que acaban de suceder; hay poco o ningún contexto pasado para ayudar al software a comprender los informes que se le pide que resuman.

“Cuando hablas de noticias, estás hablando de cosas que son novedosas”, continúa el investigador. “No estás hablando de cosas que hemos conocido durante un largo período.

“La IA es muy buena en cosas que están bien establecidas en la sociedad. La IA no sabe qué hacer cuando se trata de cosas contradictorias o nuevas. Por lo tanto, cada vez que la IA no esté entrenada con suficiente información, se equivocará aún más”.

Para garantizar la precisión, Macedo argumenta que los desarrolladores deben “encontrar una forma de verificar automáticamente esa información” antes de que se publique.

Permitir que AI aprenda de los artículos de noticias siendo entrenados en ellos también podría significar que es “más probable que mejoren” su precisión, dice Macedo.

La BBC actualmente impide que los desarrolladores usen su contenido para entrenar modelos de IA generativos. Pero otros medios de comunicación del Reino Unido han hecho movimientos para colaborar, con acuerdos de asociación entre Financial Times y OpenAI que permiten a los usuarios de ChatGPT ver resúmenes, citas y enlaces atribuidos seleccionados.

Baqir sugiere que las empresas tecnológicas, las organizaciones de medios y los reguladores de comunicaciones que colaboran podría ser la mejor manera de enfrentar el problema de desinformación de noticias de IA.

“Creo que todos necesitan unirse”, dice. “Solo entonces podemos encontrar una forma que pueda ayudarnos a mitigar estos impactos. No puede haber una sola solución”.

Proporcionado por la Universidad del Nordeste

Esta historia se vuelve a publicar por cortesía de Northeastern Global News News.northeastern.edu.

Cita: Los pasos en falso de Apple destacan los riesgos de la producción de IA que producen titulares automatizados, dice el investigador (2025, 24 de marzo) recuperado el 24 de marzo de 2025 de https://techxplore.com/news/2025-03-apple-missteps-highlight-ai-automated.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.

Back to top button