Cuando la tecnología va más allá de lo establecido

Compartir esta publicacion

Graciosos contratiempos con la búsqueda mediante IA de Google: desde la introducción de la Experiencia Generativa de Búsqueda de Google (SGE), se ha demostrado que incluso la tecnología más avanzada tiene sus riesgos. Éstos son algunos de los problemas más divertidos e inesperados que han surgido.

Paso en falso histórico

Uno de los ejemplos más notables fue cuando la búsqueda de IA respondió a una pregunta sobre la historia de Estados Unidos y al mismo tiempo enfatizó incorrectamente los beneficios de la esclavitud. Este grave error de juicio causó indignación y demostró la importancia de interpretar correctamente los contextos históricos y seguir pautas éticas.

Otro problema curioso surgió cuando la búsqueda por IA respondió a una pregunta compleja sobre cuál es la mejor marca de coches para familias con niños y perros. La respuesta generada fue tan detallada que resultó más confusa que útil. Los usuarios informaron que la respuesta parecía un mini ensayo, frustrando el propósito de obtener información rápidamente.

Una de las respuestas más divertidas y extrañas es la recomendación de espolvorear pegamento sobre una pizza para derretir el queso. Otra respuesta decía que Barack Obama era musulmán, lo cual es una teoría de conspiración completamente infundada.

La IA también parecía tener problemas con los datos sobre los presidentes de Estados Unidos, como el número de presidentes o la afirmación de que varios presidentes se graduaron en la Universidad de Wisconsin-Madison, pero esto se refería a estudiantes que tenían los mismos nombres.

Problemas con la sátira

Además, la IA tiene dificultades para distinguir la sátira de los hechos. Por ejemplo, los artículos del sitio web satírico “The Onion” se presentaron como hechos.

La confiabilidad de las respuestas es un problema grave porque muchas personas usan Google para verificar hechos. Una respuesta incorrecta puede tener consecuencias peligrosas, especialmente cuando se trata de preguntas médicas, como qué hacer si te muerde una serpiente de cascabel.

Críticas de expertos

Los expertos en el campo de la IA criticaron a Google por introducir esta función, señalando que los errores son problemas claramente previsibles que podrían evitarse.

Margaret Mitchell, ex investigadora de ética de la IA en Google, escribió: "No se trata de atrapar a Google, sino de señalar claramente los daños previsibles antes de que, por ejemplo, muera un niño".

La reacción de Google

Google respondió a las críticas diciendo que la mayoría de los ejemplos que circulan en línea son "consultas raras" y que la "abrumadora mayoría" de las resúmenes de IA proporcionan información de alta calidad. La compañía también dijo que algunos de los ejemplos en línea fueron manipulados o no reproducibles.

Conclusión

La introducción de AI Overview ha provocado cierto entretenimiento entre los usuarios, pero también ha generado serias preocupaciones sobre la confiabilidad de la información. Google está trabajando para mejorar la función y garantizar que los usuarios reciban respuestas precisas y seguras.

Artículos Relacionados

El nuevo modelo de IA o1 de OpenAI: ¿un salto cuántico en el pensamiento automático?

El 12 de septiembre de 2024, OpenAI sorprendió al mundo de la...

Actualización de Alexa mediante Claude, pero no para todos

Amazon ha dado recientemente un importante paso adelante en...

Gems, Imagen 3 y Gemini Live

En I/O 2024, Google anunció nuevas funciones para...

Aleph Alpha presenta nuevos modelos lingüísticos Pharia

La empresa alemana de inteligencia artificial Aleph Alpha acaba de anunciar...

La revolución silenciosa: cómo la IA está cambiando imperceptiblemente nuestra vida cotidiana

Introducción: el cambio invisible En un mundo caracterizado por la tecnología...

Kling AI: ¿Una alternativa a Runway and Co?

Kling AI, desarrollada por el gigante tecnológico chino Kuaishou, es una...