Nova Iorque
CNN
–
O Google prometeu que suas novas ferramentas de busca de inteligência artificial “fariam o trabalho para você” e tornariam a localização de informações on-line mais rápida e fácil. Mas poucos dias após o lançamento, a empresa já apresenta alguns resultados factualmente incorretos.
O Google lançou no início deste mês uma ferramenta de visão geral dos resultados de pesquisa gerada por IA, que resume resultados de pesquisa para que os usuários não precisem clicar em vários links para obter respostas rápidas às suas perguntas. Mas o recurso foi criticado esta semana depois de fornecer informações falsas ou enganosas às perguntas de alguns usuários.
Por exemplo, vários usuários postaram no X que o resumo de IA do Google dizia que o antigo Presidente Barack Obama é muçulmano, um equívoco comum. Na verdade, Obama é cristão. Outro usuário postou que um O resumo da IA do Google dizia que “nenhum dos 54 países reconhecidos de África começa com a letra ‘K’” – esquecendo claramente o Quénia.
O Google confirmou à CNN na sexta-feira que as visões gerais de IA para ambas as consultas foram removidas por violar as políticas da empresa.
“A grande maioria das visões gerais de IA fornece informações de alta qualidade, com links para se aprofundar na web”, disse a porta-voz do Google, Colette Garcia, em um comunicado, acrescentando que alguns outros exemplos virais de erros de IA do Google parecem ter sido imagens manipuladas. “Realizamos testes extensivos antes de lançar esta nova experiência e, assim como acontece com outros recursos que lançamos na Pesquisa, agradecemos o feedback. Estamos tomando medidas rápidas quando apropriado de acordo com nossas políticas de conteúdo.”
A parte inferior de cada visão geral da pesquisa de IA do Google reconhece que “IA generativa é experimental”. E a empresa afirma que realiza testes concebidos para imitar potenciais malfeitores, num esforço para evitar que resultados falsos ou de baixa qualidade apareçam em resumos de IA.
As visões gerais de pesquisa do Google fazem parte do esforço maior da empresa para incorporar sua tecnologia Gemini AI em todos os seus produtos, enquanto tenta acompanhar a corrida armamentista de IA com rivais como OpenAI e Meta. Mas o desastre desta semana mostra o risco de que a adição de IA – que tem tendência a declarar informações falsas com confiança – possa minar a reputação da Google como fonte confiável para procurar informações online.
Mesmo em pesquisas menos sérias, a visão geral da IA do Google parece às vezes fornecer informações erradas ou confusas.
Em um teste, a CNN perguntou ao Google “quanto sódio há no suco de picles”. A visão geral da IA respondeu que uma porção de 8 onças fluidas de suco de picles contém 342 miligramas de sódio, mas que uma porção com menos da metade do tamanho (3 onças fluidas) continha mais que o dobro do sódio (690 miligramas). (Melhor suco de picles Maid, à venda no Walmartlista 250 miligramas de sódio em apenas 30 gramas.)
A CNN também pesquisou: “dados usados para treinamento de IA do Google”. Na sua resposta, a visão geral da IA reconheceu que “não está claro se a Google impede a inclusão de materiais protegidos por direitos de autor” nos dados online recolhidos para treinar os seus modelos de IA, referindo-se a uma grande preocupação sobre como as empresas de IA operam.
Não é a primeira vez que o Google teve que reduzir os recursos de suas ferramentas de IA devido a um erro embaraçoso. Em fevereiro, a empresa interrompeu a capacidade de seu gerador de fotos de IA de criar imagens de pessoas depois que ele foi criticado por produzir imagens historicamente imprecisas que mostravam principalmente pessoas de cor no lugar de brancos.
do Google Página do Search Labs permite que os usuários em áreas onde as visões gerais de pesquisa de IA foram implementadas ativem e desativem o recurso.