Tecnología

Los últimos resultados de descripción general sin sentido de Google ilustran otro problema con AI

Es posible que no esté familiarizado con la frase “tacones de plataforma de mantequilla de maní”, pero aparentemente se origina en un experimento científico, donde la mantequilla de maní se transformó en una estructura similar a un diamante, bajo muy alta presión, de ahí la referencia de “tacones”.

Excepto que esto nunca sucedió. La frase no tiene sentido, pero se le dio una definición y una historia de fondo por las descripciones de Google AI cuando el escritor Meaghan Wilson-Anastasios, según esta publicación de hilos (que contiene algunos otros ejemplos divertidos).

Internet lo recogió y corrió con él. Aparentemente, “no puedes lamer un tejón dos veces” significa que no puedes engañar a alguien dos veces (bluesky), “un perro suelto no surfeo” significa que es poco probable que algo suceda (conectado), y “la bicicleta come primero” es una forma de decir que debes priorizar tu nutrición al entrenar para un ciclista (futurismo).

Google, sin embargo, no se divierte. Estaba ansioso por armar mi propia colección de frases sin sentido y significados aparentes, pero parece que el truco ya no es posible: Google ahora se negará a mostrar una descripción general de la IA o decirle que está equivocado si intenta obtener una explicación de una frase no sensible.

Si vas a un chatbot de IA real, es un poco diferente. Hice algunas pruebas rápidas con Gemini, Claude y Chatgpt, y los bots intentan explicar estas frases lógicamente, al tiempo que marcan que parecen no ser sensibles, y no parecen ser de uso común. Ese es un enfoque mucho más matizado, con un contexto que ha faltado desde las descripciones de IA.

Alguien en los hilos notó que puede escribir cualquier oración aleatoria a Google, luego agregar “significado” después, y obtendrá una explicación de IA de un famoso idioma o frase que acaba de inventar. Aquí está el mío (imagen o incrustación)

– Greg Jenner (@Gregjenner.bsky.social) 23 de abril de 2025 a las 11:15

Ahora, las descripción general de la IA todavía están etiquetadas como “experimentales”, pero la mayoría de la gente no se dará cuenta de eso. Asumirán que la información que ven es precisa y confiable, basada en la información raspada de los artículos web.

Y aunque los ingenieros de Google pueden haber sabido a este tipo particular de error, al igual que el pegamento en la pizza uno el año pasado, probablemente no pasará mucho tiempo antes de que otro problema similar cultree. Habla de algunos problemas básicos para obtener toda nuestra información de la IA, en lugar de las referencias escritas por humanos reales.

¿Qué está sucediendo?

Fundamentalmente, estas vistas generales de la IA están construidas para proporcionar respuestas y sintetizar información, incluso si no hay una coincidencia exacta para su consulta, que es donde comienza este problema de definición por frase. La función AI tampoco es el mejor juez de lo que es y no es información confiable en Internet.

¿Buscas solucionar un problema con la computadora portátil? Anteriormente, obtendría una lista de enlaces azules de Reddit y varios foros de soporte (y tal vez Lifehacker), pero con descripciones de IA, Google absorbe todo lo que puede encontrar en esos enlaces e intenta unir una respuesta inteligente, incluso si nadie ha tenido el problema específico que le está preguntando. A veces eso puede ser útil, y a veces puede terminar empeorando sus problemas.

¿Qué piensas hasta ahora?

Crédito: Lifehacker

Anecdóticamente, también he notado que los bots de IA tienden a querer estar de acuerdo con las indicaciones y afirmar lo que dice un aviso, incluso si es inexacto. Estos modelos están ansiosos por complacer, y esencialmente quieren ser útiles incluso si no pueden serlo. Dependiendo de cómo redacta su consulta, puede lograr que AI esté de acuerdo con algo que no esté bien.

No logré obtener modismos sin sentido definidos por las descripción general de Google AI, pero le pregunté a la IA por qué el segundo álbum de REM se grabó en Londres: eso se debió a la elección del productor Joe Boyd, dijo la visión general de la IA. Pero, de hecho, el segundo álbum de REM no fue grabado en Londres, fue grabado en Carolina del Norte, es el tercer LP que fue grabado en Londres y producido por Joe Boyd.

La aplicación de Géminis real da la respuesta correcta: que el segundo álbum no fue grabado en Londres. Pero la forma en que las resumen de la IA intentan combinar múltiples fuentes en línea en un todo coherente parece ser bastante sospechoso en términos de su precisión, especialmente si su consulta de búsqueda hace algunas afirmaciones seguras propias.

Con el estímulo correcto, Google se equivocará en su cronología musical. Crédito: Lifehacker

“Cuando las personas realizan búsquedas sin sentido o ‘falsas premisas’, nuestros sistemas intentarán encontrar los resultados más relevantes basados ​​en el contenido web limitado disponible”, dijo Google a Android Authority en una declaración oficial. “Esto es cierto para la búsqueda en general, y en algunos casos, las descripciones de IA también activarán en un esfuerzo por proporcionar un contexto útil”.

Parece que estamos atravesando los motores de búsqueda que siempre responden con la IA en lugar de la información compilada por las personas reales, pero, por supuesto, la IA nunca ha fijado un grifo, probó una cámara para iPhone o escuchó REM, solo sintetizando grandes cantidades de datos de personas que tienen, y tratando de componer respuestas al descubrir qué es más probable que se vaya frente a la anterior.

Back to top button