Atualizado em 22/07/2024 as 21:08:57
A tecnologia de inteligência artificial tende a ser também pouco criteriosa, contribuindo para a polarização extremada de pensamento.
Guilherme Carvalho
15/07/2024 08:02
Em um contexto marcado pelo caos da oferta excessiva e indiscriminada de conteúdos, cresce a necessidade de tratamento adequado das informações. Saudada pela promessa de geração de popularização de conhecimento, a tecnologia de inteligência artificial (IA) não deve resolver o problema. E a julgar pelos casos mais recentes, estes sistemas devem aprofundar a crise informacional.
Os geradores de textos mais populares como ChatGPT, Gemini e Bing são pouco claros, quando não dispersivos, sobre as fontes de informação consultadas. Em praticamente todos os casos, também se percebe a ausência de princípios éticos básicos como o reconhecimento da autoria sobre um determinado texto, já que estes sistemas não citam ou não parafraseiam os trechos cujas informações foram publicadas por outras pessoas, como faz o jornalismo profissional.
A fragilidade da geração de textos pela inteligência artificial precisa ser compreendida em três níveis principais: primeiro, sobre a base de dados utilizada; segundo, sobre o uso dos sistemas por humanos; e terceiro, sobre a programação algorítmica. A primeira fragilidade se dá no nível da geração de conteúdo a partir de informações falsas, uma vez que a geração de textos por IA considera os conteúdos disponibilizados na rede como fonte de informação.