Problemas engraçados com a pesquisa de IA da Google : Desde o lançamento da Experiência Generativa de Pesquisa da Google (SGE), tornou-se evidente que até a tecnologia mais avançada tem as suas armadilhas. Aqui estão alguns dos problemas mais divertidos e inesperados que surgiram.
Fracasso histórico
Um dos exemplos mais notáveis foi quando a pesquisa de IA respondeu a uma pergunta sobre a história americana, salientando incorretamente os benefícios da escravatura. Este erro de cálculo grosseiro causou indignação e mostrou a importância de interpretar corretamente o contexto histórico e de seguir orientações éticas.
Outro problema curioso ocorreu quando a pesquisa de IA respondeu a uma pergunta complexa sobre a melhor marca de automóvel para famílias com crianças e cães. A resposta gerada era tão pormenorizada que era mais confusa do que útil. Os utilizadores referiram que a resposta parecia ser um mini ensaio, o que anulava o objetivo de fornecer informações rápidas.
Uma das respostas mais engraçadas e estranhas foi a recomendação de polvilhar cola numa pizza para derreter o queijo. Outra resposta dizia que Barack Obama era muçulmano, o que é uma teoria da conspiração completamente infundada.
A IA também parecia ter problemas com dados sobre presidentes dos EUA, como o número de presidentes ou a afirmação de que vários presidentes se formaram na Universidade de Wisconsin-Madison, mas isso referia-se a estudantes com os mesmos nomes.
Problemas com a sátira
Além disso, a IA tem dificuldade em distinguir a sátira dos factos. Por exemplo, os artigos do sítio Web de sátira "The Onion" foram apresentados como factos.
A fiabilidade das respostas é um problema grave, uma vez que muitos utilizadores utilizam o Google para verificar os factos. Especialmente no caso de perguntas médicas, uma resposta errada pode ter consequências perigosas, como por exemplo o que fazer se for mordido por uma cascavel.
Críticas de especialistas
Os especialistas no domínio da IA criticaram a Google por ter introduzido esta função e salientaram que os erros são problemas claramente previsíveis que poderiam ser evitados.
Margaret Mitchell, uma antiga investigadora de ética da IA na Google, escreveu: "Não se trata de apanhar a Google, trata-se de apontar danos claramente previsíveis antes de, por exemplo, uma criança morrer".
A reação da Google
A Google respondeu às críticas afirmando que a maioria dos exemplos que circulam na Internet são "pedidos raros" e que a "esmagadora maioria" das análises de IA fornece informações de alta qualidade. A empresa também afirmou que alguns dos exemplos que circulam na Internet foram manipulados ou não são reproduzíveis.
Conclusão
A introdução da Visão Geral da IA causou algum divertimento entre os utilizadores, mas também suscitou sérias preocupações quanto à fiabilidade da informação. A Google está a trabalhar para melhorar a funcionalidade e garantir que os utilizadores recebem respostas precisas e seguras.