Em um estudo recente de oito ferramentas de busca com IA, o Centro Tow para Jornalismo Digital da Universidade de Columbia descobriu que os chatbots eram “geralmente ruins para declinar perguntas que não podiam responder com precisão, oferecendo em vez disso respostas incorretas ou especulativas”.
Quando verificadores digitais da AFP no Uruguai perguntaram ao Gemini sobre uma imagem de uma mulher gerada por IA, o serviço não apenas confirmou sua autenticidade, como também inventou detalhes sobre sua identidade e o lugar onde provavelmente a foto teria sido tirada.
Recentemente, o Grok classificou como “autêntico” um suposto vídeo de uma anaconda gigante nadando no rio Amazonas, citando até expedições científicas aparentemente plausíveis para apoiar sua falsa afirmação.
Na realidade, o vídeo foi gerado por IA, reportaram os verificadores da AFP na América Latina, que indicaram que muitos usuários citaram a avaliação do Grok como prova de que o clipe era real.
Essas descobertas suscitaram preocupações, já que pesquisas mostram que os usuários estão trocando cada vez mais os mecanismos de busca tradicionais por ferramentas de IA generativa para coletar e verificar informações.
Essa mudança também coincide com a decisão da Meta, no início do ano, de encerrar seu programa de verificação digital externo nos Estados Unidos e transferir a tarefa de desmentir alegações falsas para os usuários, por meio das chamadas “notas da comunidade”, um recurso popularizado pelo X.
noticia por : UOL