Os gigantes da tecnologia estão em uma batalha acirrada para oferecer a inteligência artificial mais avançada, mas parece que esqueceram de conferir se seus assistentes de IA possuem algum tipo de bom senso.
Seguindo os passos do Bing Search, o Google lançou recentemente seu próprio recurso de visão geral de IA como parte de sua experiência de pesquisa generativa. A ideia por trás disso é simples: quando você faz uma pesquisa, a IA do Google fornecerá uma breve visão geral ou resposta logo no topo da página de resultados. Isso não só economizaria tempo, mas também reforçaria a posição do Google como líder em soluções de pesquisa inovadoras.
No entanto, a execução não foi tão brilhante, transformando o que poderia ser uma ferramenta poderosa em algo mais parecido com uma piada na Internet. Um exemplo claro disso foi quando um usuário perguntou como evitar que o queijo escorregasse de uma pizza e recebeu a sugestão de usar “cola não tóxica”.
Desculpe, mas se você precisa usar cola em sua pizza para manter a cobertura no lugar, você tem problemas maiores do que simplesmente o queijo escorregar. Além disso, essa recomendação brilhante foi baseada em um post do Reddit de 11 anos atrás. Que maneira de se manter atualizado, Google.
A questão vai além de dicas culinárias bizarras. Quando questionado sobre quais presidentes frequentaram a UW Madison, a IA do Google listou com confiança o “Presidente Andrew Jackson” como graduado… em 2005.
Acho que a IA do Google não recebeu o memorando de que Andrew Jackson faleceu em 1845. Talvez estivesse ocupada demais inventando novas unidades de medida, como o “quilotomato”. Mal posso esperar para ver isso adicionado ao sistema métrico.
Além disso, quando questionado sobre os benefícios de correr com tesouras, a IA declarou que é um ótimo exercício cardiovascular. Tenho certeza de que os médicos de pronto-socorro discordariam.
Falando em recomendações questionáveis, não me faça começar sobre a resposta incrivelmente insensível da IA a um usuário que pesquisou “Estou me sentindo deprimido”. A IA do Google achou que seria uma ótima ideia sugerir ao usuário que pulasse de uma ponte. Isso não é apenas inapropriado; é absolutamente perigoso e insensível.
Agora, para ser justo, a IA esclareceu que essa sugestão foi baseada em um post do Reddit. No entanto, imagine você indo a um terapeuta e dizendo que está se sentindo deprimido, e a resposta dele é: “Bem, vi no Reddit que pular de uma ponte pode ajudar”. Você ficaria horrorizado, e com razão. Mas é essencialmente isso que a IA do Google está fazendo aqui. Ao não conseguir filtrar esse conteúdo perigoso e, em vez disso, apresentá-lo como uma opção viável, a IA do Google não está sendo apenas insensível, mas também irresponsável.
Mas por que isso está acontecendo? Bem, é importante lembrar que o recurso de visão geral de IA do Google ainda está em fase experimental. A resposta está relacionada a algo chamado “alucinações de IA”. Isso se refere a um fenômeno em que uma IA começa a inventar ou “imaginar” coisas que não são verdadeiras. Essas alucinações de IA não são exclusivas do Google. O Bing Chat da Microsoft teve seus próprios erros, desde inventar notícias falsas até expressar o desejo de roubar códigos de lançamento nuclear.
O cerne do problema está no fato de que esses modelos de IA são treinados em grandes quantidades de dados online, incluindo postagens em redes sociais, artigos de notícias e até mesmo discussões no Reddit. E como sabemos, a Internet não é exatamente um lugar de verdade e precisão. Então, quando esses assistentes de IA começam a produzir bobagens, é simplesmente um reflexo do lixo com o qual foram alimentados. E quando essa pressão é combinada com a intensa competição no campo da IA, resulta em um cenário propenso a desastres.
Essas empresas de tecnologia estão tão focadas em vencer a corrida da IA que parecem estar esquecendo dos humanos reais que utilizam seus produtos. Eles estão ocupados demais se vangloriando de seus algoritmos, enquanto o resto de nós lida com as consequências de suas criações. Esses sistemas de IA estão sendo cada vez mais usados na área da saúde e nas finanças, o que torna os riscos das alucinações de IA ainda mais graves. Talvez seja melhor confiarmos em métodos mais tradicionais para manter o queijo na pizza.
We Got This Covered é apoiado pelo nosso público. Quando você compra por meio de links em nosso site, podemos ganhar uma pequena comissão de afiliado. Saiba mais.