Muitas pessoas e instituições têm me questionado e pedido minha contribuição em relação ao uso de ferramentas de inteligência artificial para o trabalho cotidiano, sobretudo no campo da comunicação. Vejo isso de forma positiva, já que há certo reconhecimento pelo meu trabalho de 10 anos nesse campo, quando o tema ainda era desconhecido da grande maioria das pessoas.

A minha mais recente contribuição foi no Webnar Inovação em Comunicação: Sustentabilidade de Tecnologia, promovido pelo coletivo de assessorias de comunicação do Ministério Público de todo o Brasil. O evento serviu como preparação para o 1º Congresso Nacional dos Comunicadores do MP brasileiro (Conacomp), que ocorrerá no próximo mês. Tive a honra de dividir as atenções com a professora emérita da Universidade de São Paulo (USP), Margarida Kunsch, que foi minha supervisora no pós-doutorado.

Os comunicadores do Ministério Público, assim como inúmeros jornalistas e profissionais da comunicação de forma geral, estão bastante preocupados com alguns riscos que a tecnologia pode trazer, assim como ansiosos por conhecer ferramentas e técnicas a partir da tecnologia que podem ser úteis no dia a dia na repartição.

Tratei de alguns desses aspectos, como o fato de que o Chat-GPT não costuma trazer a fonte das informações que disponibiliza, a não ser que seja questionado disso, e não raro erra ao dizer quem é a fonte. Isso é um problema grave para o jornalismo profissional, já que uma fonte fidedigna é um dos pilares prática jornalística. Não por acaso, uma das formas de identificar notícias falsas é por meio da ausência de fontes confiáveis.

Minha argumentação, porém, baseou-se em algo mais complexo e abrangente: os dilemas éticos em torno do uso de IA generativa, ou Inteligência Artificial (IA) generativa, ou tecnicamente falando Modelo de Linguagem Grande (LLM em inglês), que são os sistemas de IA capazes de gerar texto, imagens ou outras respostas a partir de uma solicitação em linguagem comum, na língua portuguesa, por exemplo. O sistema que todo mundo conhece é o famigerado Chat-GPT.

Lembro bem que quando esse assunto veio à tona, no começo deste ano, criou-se um grande alvoroço. Para mim, sem falsa modéstia, não me surpreendeu. Já havia conhecido e testado sistemas semelhantes quando pesquisei softwares de jornalismo algorítmico, que se baseia na produção autônoma de textos jornalístico sem o suporte humano. Minhas impressões estão no meu livro Inovação em Comunicação no Brasil, de 2018.

Desde 2016, quando publiquei meu primeiro artigo internacional sobre ética e máquinas produtoras de conteúdo, afirmo que o maior desafio é minimizar o preconceito embutido nas máquinas, isto é, o quanto os sistemas computacionais refletem visões de mundo nefastas, exemplo: quando um algoritmo não recomenda um empréstimo porque a pessoa mora em um bairro pobre ou quando alguém deixa de ser contratado porque não é da pele branca.

Como combatemos isso? Assunto para outras colunas.

* A opinião do colunista não reflete, necessariamente, a da Folha de Londrina.