Não poderia ter escolhido assunto melhor para tratar aqui nessa coluna neste período. Aquilo que era uma discussão adstrita a especialistas ganhou ares de luta de gigantes envolvendo as empresas mais poderosas do mundo, o Governo Federal e até parte do Poder Judiciário.

Imagem ilustrativa da imagem Por uma ética na internet a favor da sociedade: PL 2630
| Foto: iStock

O jogo sujo das grandes empresas de tecnologia, chamadas de Big Techs, que eu alertei em colunas anteriores, fez as autoridades brasileiras tomarem decisões drásticas, como multas e processos na justiça. Tudo em razão do PL 2630 que tramita no Congresso Nacional.

Isso já tendo em vista que o Governo Federal retirou do texto a proposta de uma agência reguladora e a possibilidade de o jornalista receber parte dos recursos pela produção jornalística, o que fez as empresas de mídia tradicionais mudarem de lado no debate e incentivarem as críticas às Big Techs, já que as firmas brasileiras ficarão com os recursos oriundos da taxação extra das grandes empresas de tecnologia.

Estas mesmas firmas colocaram seus algoritmos para trabalharem a favor de seus interesses. Além de cartas abertas aos usuários, estão usando de artimanhas, como promover links e comentários nas redes sociais, para manipular as pessoas estimulando falsos debates, muitos deles por meio de fake news.

As mesmas firmas que afirmam não ser possível controlar o que as pessoas postam em suas plataformas e a favor de uma suposta liberdade de expressão, estão restringindo o acesso a informações e opiniões favoráveis ao PL 2630. Isto é, quando o assunto é do interesse deles, os sistemas estão aptos a trabalharem em prol deles. Quando a legislação tenta impor limites à atuação delas, não tem como.

Escrevi na coluna anterior que os sistemas computacionais têm plenas condições de contribuir no filtro daquilo que é criminoso, como mensagens de ódio e apologia ao nazismo. O ministro do Supremo Tribunal Federal (STF) se posicionou muito bem quando disse que os mecanismos usados para defender direitos autorais nas plataformas poderiam ter o mesmo emprego para evitar a desinformação e as fake news. Da mesma maneira, os sistemas já detectam vídeos, comentários, fotos de apologia à pedofilia, o que é extremamente importante. Porém, isso é básico, não uma virtude. É preciso ir além, como aprimorar os sistemas computacionais para evitar vieses embutidos.

Quando uma máquina é ensinada a fazer algo, ela pode aprender do jeito errado ou certo. Depende da forma. Fora o fato de que os dados utilizados para forjar o sistema precisam ser o mais isentos possível. Por exemplo, se o sistema aprende que violência contra a mulher é uma mimimi, ele vai reproduzir essa visão absurda nos seus filtros e liberar conteúdo que estimule esse pensamento perverso. Por isso defendi que as máquinas auxiliem no processo de curadoria do que é certo ou errado nas redes, do que é criminoso ou não no ambiente virtual.

Obviamente que isso é difícil, já que demanda altos investimentos em aprimorar a ética das máquinas, porém é imperioso. A criação de uma lei é apenas o primeiro passo ;)

*Lucas V. de Araujo: PhD em Comunicação e Inovação (USP). Jornalista da Câmara de Mandaguari. Professor da UEL, parecerista internacional e mentor de startups. @professorlucasaraujo (Instagram) @professorlucas1 (Twitter).

A opinião do colunista não representa, necessariamente, a da Folha de Londrina.

****

Receba nossas notícias direto no seu celular! Envie também suas fotos para a seção 'A cidade fala'. Adicione o WhatsApp da FOLHA por meio do número (43) 99869-0068 ou pelo link wa.me/message/6WMTNSJARGMLL1.