Inteligência Artificial (IA) está na moda. Fico sempre cauteloso quando trato de “modinhas”, já que as pessoas costumam banalizar o assunto. Isto está acontecendo com os sistemas chamados de Inteligência Artificial Generativa, cujo melhor exemplo é o famigerado ChatGPT.

Desde 2014 pesquiso e trabalho com essa temática. Publiquei em 2016, quando a grande maioria sequer imaginava que podiam surgir tecnologias assim, artigo essencial no qual analisei a possibilidade de uma máquina computacional apresentar um comportamento ético na produção de conteúdo. É a minha publicação científica mais citada no mundo (44x até hoje) https://tinyurl.com/32djykth

Falo isso porque é preciso muita prudência para tratar de um tema delicado como ética computacional. Por mais banal que seja pedir uma receita de bolo ou dicas de como emagrecer para o ChatGPT, a situação é diferente quando o que está em jogo é o Jornalismo, notadamente o realizado por entidades públicas.

Fiquei muito honrado e lisonjeado quando comunicadores de todo o Ministério Público (MP) brasileiro convidaram-me para realizar palestra no 1˚Conacomp, Congresso Nacional dos Comunicadores do Ministério Público do Brasil, sobre inovação no campo da comunicação, com destaque para tecnologias com IA. Foi um debate importante e necessário que todas as instituições públicas brasileiras deveriam fazer, pois está em jogo aspectos imprescindíveis, como o combate às notícias falsas e desinformação, a relevância do MP para a sociedade, assim como a ética na informação de utilidade pública.

Um dos pontos que procurei destacar nas minhas ponderações e que gerou um intenso debate foram os inúmeros erros que as máquinas cometem e a parcela de responsabilidade que cada um de nós temos quando utilizamos esses sistemas. Mostrei em um simples diálogo com o ChatGPT fornece informações erradas, ainda que o mesmo afirme taxativamente o contrário. Como não tenho espaço hábil, não adentrarei a aspectos muito técnicos, como o tipo de pergunta que fiz, porém posso assegurar que segui protocolos acadêmicos para testes.

Não vejo problema em constatar que a máquina erra. O maior complicador está na confiança absoluta de que o sistema é infalível, o que é um grande engano. O sistema não só é passível de erros, como o faz com maior frequência conforme a complexidade do assunto em questão. Por exemplo, a probabilidade de a máquina errar ao ser questionada sobre métodos de emagrecimento é infinitamente menor quando comparada com aspectos políticos, como liberalismo e comunismo, ou ainda temas delicados como o aborto.

Se o usuário está ciente disso, podemos criar uma boa relação com o sistema e utilizá-lo de forma profícua no dia a dia. Caso contrário, nos tornamos reféns de máquinas sem condições de agir eticamente, assim como das empresas que criaram esses sistemas. Afinal, não nos esqueçamos que existem interesses comerciais, políticos e ideológicos em cada uma dessas tecnologias que usamos ;)

*Lucas V. de Araujo: PhD em Comunicação e Inovação (USP). Jornalista Câmara de Mandaguari, Professor UEL, parecerista internacional e mentor de startups. @professorlucasaraujo (Instagram) @professorlucas1 (Twitter)

¨¨¨

A opinião do colunista não é, necessariamente, a opinião da Folha de Londrina