Parece que las revisiones de IA de Google hacen valores para modismos inventados


Que saber

  • Las revisiones de Google AI pueden generar explicaciones confiables para los modismos que no existen.
  • Los usuarios probaron el sistema, solicitando los valores de las frases fabricadas, recibiendo respuestas detalladas pero fabricadas.
  • Este fenómeno enfatiza el problema constante de las alucinaciones de la IA, donde la IA inventa información para llenar los vacíos.
  • Google continúa expandiendo las revisiones de IA, a pesar de estos errores, planteando preguntas sobre confiabilidad.

Las revisiones de IA en Google, currículums automatizados que aparecen en la parte superior de los resultados de búsqueda, recientemente mostraron la tendencia a explicar modismos completamente inventados, como si fueran frases establecidas. Cuando los usuarios solicitan AI sobre la importancia de un idioma ficticio, a menudo cumple con una interpretación creíble, aunque la frase no tiene una base real.

Alguien en las transmisiones notó que puede ingresar cualquier propuesta accidental en Google, y luego agregar un «significado», y recibirá una explicación de AI de un idioma bien conocido o la frase que acaba de compilar. Aquí está el mío

-Genner Greg (@gregjenner.bsky.social) 2025-04-23T10: 15: 15.706Z

Por ejemplo, cuando se le ofreció la frase «No puedes lamer el tejón dos veces», la revisión de Google explicó con confianza que esto significa que no puedes engañar o engañar a nadie por segunda vez después de que ya fueron engañados una vez. Esta explicación, aunque lógica, está completamente hecha, ya que el idioma en sí no existe en un idioma o cultura. La respuesta de la IA demuestra su tendencia a la invención de los significados, y no reconoce la frase como estupidez o reconocimiento de la incertidumbre.

Otros ejemplos incluyen la interpretación de la inteligencia artificial «No se puede jugar al golf sin pescado», que él llamó un misterio sobre la necesidad de tener el equipo correcto: establecer una pelota de golf puede considerarse como un «pescado» de su forma. De la misma manera, la frase «no puede abrir un frasco de aceite de Arachis con dos piernas izquierdas» se explicó como una referencia a la necesidad de habilidad o destreza para realizar ciertas tareas. Cada una de estas respuestas muestra la tendencia de la IA a completar los vacíos de información con un contenido fabricado pero razonable.

Tal comportamiento se conoce como la «alucinación de la IA», donde la inteligencia artificial genera información falsa o engañosa que parece ser confiable. A pesar del hecho de que a veces son divertidos, estos errores distinguen las restricciones a los sistemas de IA actuales, especialmente cuando se les indica que proporcionen respuestas autorizadas a las solicitudes de los usuarios. Este problema causa preocupación por la confiabilidad del contenido generado por la IA, especialmente cuando Google planea expandir las revisiones de IA para procesar temas más complejos, incluidas consultas médicas y técnicas.

A pesar de estos problemas, Google continúa promoviendo y desarrollando sus funciones de búsqueda con IA. La compañía afirma que los usuarios avanzados aprecian la capacidad de la IA para responder una amplia gama de preguntas, a pesar de que reconoce las restricciones tecnológicas. Por el momento, los usuarios pueden deshabilitar la función de revisión de AI si prefieren los resultados de búsqueda tradicionales. Sin embargo, la constancia de las alucinaciones de IA sirve como un recordatorio de que, aunque la inteligencia artificial puede ser útil, no es infalible y debe usarse con precaución.

¡Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)
Compártelo!

Deja un comentario