A busca por conversas nos chatbots com IA
Chatbots de IA ameaçam a autonomia do usuário e fragilizam a sobrevivência do jornalismo de qualidade
Para buscar informações na internet, até há pouco digitávamos o assunto na barra de pesquisas. Diante dos links oferecidos, escolhíamos aqueles nos quais entrávamos. Isso gerava tráfego de audiência e potencial monetização para os veículos produtores da informação, embora plataformas como o Google nem sempre remunerassem corretamente os veículos de comunicação e outros produtores de conteúdo. Agora, cada vez mais, as pessoas vão direto aos chats de inteligência artificial e formulam a pergunta. A resposta vem organizada por ferramentas de IA como ChatGPT, DeepSeek ou Gemini. Recebem um texto pronto com uma visão geral sobre o assunto, compilado pelo chatbot a partir do material que existe na internet. Muita gente se satisfaz com esse "resumo" e deixa de clicar nos links que a outra modalidade de busca oferece. A navegação deixa de ser feita por cliques e torna-se uma sucessão de perguntas e respostas.
A principal consequência para o usuário é que ele deixa de fazer a seleção das informações apresentadas pelos links que aparecem nas buscas tradicionais. Nesse novo modelo de buscas por conversas nos chatbots, quem escolhe e hierarquiza as informações é a ferramenta de IA. Na maioria das vezes, o usuário não clica nos links das fontes das informações. Essa curadoria deixa de ser humana e passa a ser feita pelo chatbot. O usuário torna-se passivo. "É como se tivesse alguém na frente de uma loja contando para quem está fora tudo o que tem lá dentro. A pessoa não precisa entrar", explica Gustavo Franco, diretor da agência Graphite (O Globo, 24.8.25). Mesmo antes, já havia perda de autonomia, pois a hierarquização e seleção desses links era feita pelos algoritmos programados pelas plataformas. A autonomia e a criatividade, que já eram limitadas, tornam-se ainda mais reduzidas e superficiais.
Outra consequência relevante atinge os produtores de conteúdo. Veículos de comunicação, universidades, think tanks e outras instituições passam a ter seus materiais usados sem que o receptor ao menos entre em seus sites. Os chatbots recolhem as informações e as repassam ao internauta. Ficam desprotegidas a propriedade intelectual e a audiência desses produtores de conteúdo. Sem receberem contraprestação pelo uso de seus materiais, como poderão continuar gerando as informações que depois serão organizadas e usadas pelas plataformas de IA? No modelo tradicional de buscas, Google e outros conectavam a pesquisa do usuário com os sites produtores da informação buscada. Possibilitava-se a monetização dos cliques, remunerando os sites que haviam gerado o conteúdo, mesmo com imperfeições. No novo modelo, os sites deixam de ser clicados e, portanto, não têm como auferir receitas pelos acessos. Cria-se um modelo de free rider, o velho e conhecido caroneiro. Os modelos de IA apropriam-se dos conteúdos que buscam nos sites produtores de material jornalístico e acadêmico e faturam com eles, mas não os remuneram por isso. Além disso, impedem que o modelo de receita por cliques continue viabilizando os jornais e demais produtores de matérias de qualidade.
Já estão ocorrendo negociações e ações judiciais envolvendo veículos jornalísticos e as big techs sobre essa remuneração de conteúdos. O New York Times e a Folha de S. Paulo já entraram com ações judiciais contra a OpenAI, cobrando remuneração por seus conteúdos usados pelo ChatGPT. Outras saídas aventadas são os bloqueadores de acesso a conteúdos protegidos. O problema está só começando. Mas, como já dizia um certo filósofo nascido em Trier, a humanidade não se propõe problemas para cuja solução não existam as condições.
* Este é um artigo de opinião, de responsabilidade do autor, e não reflete a opinião do Brasil 247.