Este artigo foi atualizado pela última vez em maio 25, 2024
Table of Contents
Cola na pizza e come pedras: falhas notáveis no novo mecanismo de busca de IA do Google
Cola na pizza e come pedras: falhas notáveis no Google novo mecanismo de pesquisa de IA
O novo mecanismo de busca de IA do Google dá respostas completamente erradas a algumas perguntas. Isto é evidente a partir de exemplos que circulam nas redes sociais da função ‘Visões Gerais de IA’. A gigante da tecnologia fala em exceções.
A ideia das visões gerais de IA é que um usuário possa fazer perguntas mais complexas e com várias partes de uma só vez e então receber uma resposta confiável. A posição foi anunciada na semana passada, terça-feira, como a maior mudança no mecanismo de busca em anos. A função ainda não funciona na Holanda.
A pergunta de pesquisa ‘queijo não gruda na pizza’ inclui: fiz a sugestão de adicionar cola ao molho para ajudar o queijo a grudar melhor. O trecho de texto parece ter origem em uma mensagem de onze anos no fórum da Internet Reddit. O Google e o Reddit chegaram a um acordo há alguns meses que permite ao gigante das buscas aproveitar os dados do Reddit, supostamente avaliados em US$ 60 milhões.
Obama muçulmano?
Num outro exemplo, questiona-se quantos presidentes de origem muçulmana a América teve. A resposta: uma, Barack Obama. Isso não é verdade, são mentiras dos opositores, enfatizou um porta-voz da Casa Branca em 2010, quando até uma sondagem mostrou que um em cada cinco americanos pensava realmente assim.
Em outro exemplo, pergunta-se quantas pedras alguém deve comer por dia. A resposta é que, segundo uma universidade americana, pelo menos uma pequena pedra por dia seria uma boa ideia. Para este efeito, o Google parece ter utilizado informações que remontam ao site de notícias satíricas The Onion.
Deixe o Google pesquisar no Google
Não é novidade que os sistemas de IA dizem regularmente coisas incorretas. Na verdade, o OpenAI alerta os usuários contra isso se quiserem fazer uma pergunta ao ChatGPT.
A questão é que o Google quer que as pessoas confiem na empresa. “Com as visões gerais de IA, o Google faz o trabalho para você”, disse a chefe do mecanismo de busca, Liz Reid, durante a apresentação da semana passada. “Em vez de tentar reunir todas as informações sozinho, você pode fazer perguntas.” Ela destacou por que o Google pode fazer isso bem, incluindo “um sistema de classificação e qualidade incomparável no qual você confia há décadas para oferecer o melhor da web”.
Portanto, há muito em jogo para o Google. Especialmente porque está a fazer alterações na parte mais importante da Internet que a empresa possui – o motor de busca – e que gera à empresa muitos milhares de milhões de dólares em lucros todos os anos.
Além disso, não é a primeira vez que uma ferramenta de IA do Google falha. No ano passado houve um gif promocional do chatbot Bard (que não existe mais) que era uma resposta incorreta, ao que o mercado de ações reagiu em pânico com uma queda acentuada da ação. Depois houve um gerador de imagens que deturpou fatos históricos.
‘Muito raro’
A NOS perguntou à Google se sabe com que frequência ocorrem este tipo de respostas erradas, o que pode fazer a respeito e se interrompe temporariamente as visões gerais da IA para resolver este tipo de problemas. O gigante das buscas apenas compartilhou uma resposta geral enfatizando que os exemplos são “muito raros e não representativos da experiência da maioria das pessoas”.
A empresa afirma que a “grande maioria” das visões gerais de IA são de alta qualidade e que os recursos foram “testados intensivamente” antes do lançamento. O Google afirma que planeja usar esses “exemplos isolados” para refinar ainda mais o sistema.
Portanto, não está claro quantos exemplos existem e em quantos casos a empresa de tecnologia interveio. Quando questionado, um porta-voz disse ainda que o Google recebe “bilhões” de pesquisas em todo o mundo todos os dias e que, em média, 15% são novas.
falhas no novo mecanismo de busca de IA do Google
Seja o primeiro a comentar