Graciosos contratiempos con la búsqueda mediante IA de Google: desde la introducción de la Experiencia Generativa de Búsqueda de Google (SGE), se ha demostrado que incluso la tecnología más avanzada tiene sus riesgos. Éstos son algunos de los problemas más divertidos e inesperados que han surgido.
Paso en falso histórico
Uno de los ejemplos más notables fue cuando la búsqueda de IA respondió a una pregunta sobre la historia de Estados Unidos y al mismo tiempo enfatizó incorrectamente los beneficios de la esclavitud. Este grave error de juicio causó indignación y demostró la importancia de interpretar correctamente los contextos históricos y seguir pautas éticas.
Otro problema curioso surgió cuando la búsqueda por IA respondió a una pregunta compleja sobre cuál es la mejor marca de coches para familias con niños y perros. La respuesta generada fue tan detallada que resultó más confusa que útil. Los usuarios informaron que la respuesta parecía un mini ensayo, frustrando el propósito de obtener información rápidamente.
Una de las respuestas más divertidas y extrañas es la recomendación de espolvorear pegamento sobre una pizza para derretir el queso. Otra respuesta decía que Barack Obama era musulmán, lo cual es una teoría de conspiración completamente infundada.
La IA también parecía tener problemas con los datos sobre los presidentes de Estados Unidos, como el número de presidentes o la afirmación de que varios presidentes se graduaron en la Universidad de Wisconsin-Madison, pero esto se refería a estudiantes que tenían los mismos nombres.
Problemas con la sátira
Además, la IA tiene dificultades para distinguir la sátira de los hechos. Por ejemplo, los artículos del sitio web satírico “The Onion” se presentaron como hechos.
La confiabilidad de las respuestas es un problema grave porque muchas personas usan Google para verificar hechos. Una respuesta incorrecta puede tener consecuencias peligrosas, especialmente cuando se trata de preguntas médicas, como qué hacer si te muerde una serpiente de cascabel.
Críticas de expertos
Los expertos en el campo de la IA criticaron a Google por introducir esta función, señalando que los errores son problemas claramente previsibles que podrían evitarse.
Margaret Mitchell, ex investigadora de ética de la IA en Google, escribió: "No se trata de atrapar a Google, sino de señalar claramente los daños previsibles antes de que, por ejemplo, muera un niño".
La reacción de Google
Google respondió a las críticas diciendo que la mayoría de los ejemplos que circulan en línea son "consultas raras" y que la "abrumadora mayoría" de las resúmenes de IA proporcionan información de alta calidad. La compañía también dijo que algunos de los ejemplos en línea fueron manipulados o no reproducibles.
Conclusión
La introducción de AI Overview ha provocado cierto entretenimiento entre los usuarios, pero también ha generado serias preocupaciones sobre la confiabilidad de la información. Google está trabajando para mejorar la función y garantizar que los usuarios reciban respuestas precisas y seguras.