A menos de um mês para o primeiro turno das eleições municipais, a tensão entre desafetos tende a aumentar e ganhar ainda mais espaço no ambiente em que as campanhas políticas estão sendo amplamente realizadas: as redes sociais. Com o acirramento da disputa por cada voto, a impressão que muitos eleitores têm é que a qualquer momento um escândalo novo envolvendo o nome de algum candidato será divulgado, especialmente em aplicativos de mensagens instantâneas ou em sites de caráter duvidoso.

Imagem ilustrativa da imagem “Não podemos depositar todas as fichas nas soluções tecnológicas”
| Foto: OBA/Divulgação

Por conta disso, em 2020, um elemento novo vem tornando a identificação do que é verdadeiro ou falso ainda mais difícil. Os chamados "deepfakes", vídeos manipulados que começaram a inundar as redes sociais no início de 2019, também têm sido alvos da cruzada contra a desinformação encabeçada pelo TSE (Tribunal Superior Eleitoral) e que conta com a colaboração dos partidos e agências de checagem de fatos de natureza pública e privada.

O conceito é uma mistura dos termos em inglês "deep learning" e "fake news". O primeiro remete ao aprendizado profundo sobre a utilização de Inteligência Artificial e o segundo já é bem mais conhecido: notícias falsas. A novidade da vez é que até especialistas no assunto têm sentido dificuldade em identificar vídeos manipulados tamanha a qualidade das falsificações.

Neste ano, o Facebook anunciou que iria limitar o alcance desses vídeos e até criou um banco de dados no intuito de preparar os seus algoritmos para um cenário catastrófico, uma vez que qualquer pessoa pode começar a produzir vídeos criminosos com o objetivo de arruinar reputações.

Mesmo com a iniciativa do TSE, "tardia", na opinião da advogada especializada em Direito Digital, Proteção de Dados e Novas Tecnologias, Paula Marques Rodrigues, não é possível assegurar 100% de eficácia na separação do que realmente interessa ao eleitor. Ou melhor, do que deveria interessar. Coordenadora da área contenciosa do escritório Opice Blum Advogados e membro da Comissão de Direito e Inteligência Artificial do Instituto dos Advogados de São Paulo, Rodrigues defendeu que a educação é a única aliada da tecnologia na busca pela verdade.

Imagem ilustrativa da imagem “Não podemos depositar todas as fichas nas soluções tecnológicas”
| Foto: iStock

Qual é o impacto da utilização criminosa da ferramenta deepfake? A sra. acredita que poderá ser usada ainda neste ano nas eleições?

Se as notícias falsas já trazem uma confusão sobre a informação que está sendo passada, e nessa época de pandemia, inclusive, estamos vivendo um período de desinformação muito grande envolvendo saúde pública, de fato a utilização de tecnologia diferenciada para alterar vídeos, eu entendo que é algo mais grave porque as imagens, em movimento ou paradas, fotos, vídeos, sons, mexem com uma parte importante do nosso cérebro. Fazem com que a gente se conecte com aquela experiência, o que é diferente do texto. Quando você vê um vídeo com uma música triste e uma cena que você fica sensibilizado, muitas vezes você chora. É muito mais intenso e é algo muito grave, uma distorção muito profunda da realidade. E quem está mais por dentro deste tema, às vezes consegue ter um olhar mais crítico, mas, inclusive nós que trabalhamos com tecnologia, podemos ter sido enganados por algum vídeo. Ao mesmo tempo que a Inteligência Artificial acaba sendo utilizada por esses agressores para promover esse tipo de desinformação, temos a Inteligência Artificial, que é utilizada para combater esse tipo de produção de vídeo. Algumas empresas de tecnologia já desenvolveram sistemas, alguns mais acessíveis, outros nem tanto, por isso que é algo que vem caminhando a passos largos, mas bem relevantes, que verificam take by take do vídeo e conseguem averiguar se foi alterado, o que é algo um pouco mais difícil do que com textos.

Apenas a Inteligência Artificial e o identificador de imagens, a tecnologia de Block Chain, podem ser capazes de combater a desinformação com deepfakes’?

As novas tecnologias conseguem nos auxiliar de forma muito mais assertiva, mas precisam ser pautadas ao princípio da ética aplicada a qualquer ferramenta tecnológica. Tanto a Inteligência Artificial quanto a Block Chain, quanto outras que vão surgir e podem ser grandes aliadas da sociedade na promoção de vetores de educação. Sou bastante entusiasta sobre isso, mas não podemos depositar todas as nossas fichas nas soluções tecnológicas. Podemos ter as melhores soluções que apurem, por exemplo, em segundos se um vídeo é falso ou não, mas precisamos ter nossa cultura e a nossa educação digital para buscar essa ferramenta e buscar as informações corretas. A nossa maturidade em termos de seleção de informações continua meio parecida com o que era antigamente, o que está mudando é o veículo de informação. Se nos deixarmos levar pelo volume de informações que temos e não tivermos o intuito de pesquisar minimamente, vamos acabar acreditando no primeiro vídeo que recebermos sobre determinado candidato? Temos esse problema na educação eleitoral e que também passa pela questão tecnológica e tem muitas coisas relacionadas ao comportamento do eleitor, consumidor e titular dos dados pessoas, quando falamos em privacidade, em como ele encara este tipo de informação e até que ponto ele está disposto a buscar a verdade e não se acomodar com o que lhe é oferecido.

Qual é o tamanho da "dor de cabeça" que isso tudo já está dando ao Poder Judiciário? E agora com a Lei Geral de Proteção de Dados em vigor?

O Poder Judiciário tem uma missão difícil e até ingrata de quando falamos em novas legislações porque é o Poder Judiciário que acaba aplicando no caso concreto e com muitas leis ainda dependendo de regulamentação. Por exemplo, a Lei Geral de Proteção de Dados já está em vigor, mas temos uma questão sensível que é a ausência da constituição da Autoridade Nacional de Proteção de Dados e as penalidades. Muitas empresas procuram escritórios de advocacia desesperadas, pensando nas penalidades que vão sofrer pela ausência da implementação ou de uma adequação correta aos princípios da lei. Então o Judiciário acaba com a difícil tarefa de tentar adequar isso sem uma Autoridade Nacional de Proteção de Dados, que seria o órgão mais especializado no País. Sem uma regulamentação específica falta uma segurança jurídica das empresas que coletam e usam dados pessoais. A interpretação acaba ficando com o Poder Judiciário em uma situação de litígio e já temos casos em andamento. Temos algumas discussões sobre envio de informações falsas pelos meios eletrônicos na Justiça Eleitoral valendo para essa eleição e é um movimento muito rápido. As pessoas já querem questionar o Poder Judiciário e de fato ele não pode se omitir. Aqui no estado de São Paulo o Poder Judiciário está assoberbado de processos, detém mais de 60% dos processos do País, em outros estados também, como no Rio Grande do Sul e Paraná temos uma certa limitação porque o Poder Judiciário tem que decidir muitas causas e as relacionadas à tecnologia e proteção de dados são bem específicas. Mas temos percebido que há uma preocupação. O próprio CNJ (Conselho Nacional de Justiça) está editando várias resoluções relacionadas à Inteligência Artificial e sua regulamentação, a questão das ferramentas tecnológicas que apoiem os juízes e as estruturas judiciárias para que haja maior fôlego e, de fato, os juízes consigam se debruçar sobre essas questões que vão aparecer cada vez mais. Dificilmente um advogado, ainda que não seja da área de tecnologia, não vai se deparar com uma forma tecnológica ainda longo do seu processo e tenha que explicar ao Poder Judiciário. É algo que afeta todos os setores e vamos ter cada vez mais casos

E há uma discussão importante também sobre quando teremos robôs julgando casos. Qual é a sua perspectiva sobre isso?

É um tema polêmico. Há uma grande preocupação da comunidade mundial. Vários países e a comunidade europeia têm editado normas para direcionar o desenvolvimento ético de ferramentas de inteligência artificial porque nada mais são do que sistemas que tentam reproduzir a inteligência humana. Uma premissa muito importante é que não podemos falar que esses sistemas são totalmente autônomos e inteligentes. Nós ainda não estamos vivendo uma realidade do "Eu Robô", do Isaac Asimov, e acredito que essa realidade possa vir a acontecer, mas não acredito que esteja próximo. Quando falamos da aplicação ao sistema judiciário, temos o caso da Estônia que já tem juízes robôs, como eles mesmos gostam de chamar, que são para as causas que têm valores baixos, são de baixa complexidade. Temos exemplos no Estados Unidos que usam ferramentas para contabilizar penas no sistema criminal, sugerir aos juízes que concedam a liberdade provisória ou outras benesses, o que está causando bastante polêmica porque eles verificaram alguns vieses preconceituosos. Então temos que ser muito cautelosos. Os sistemas são excelentes ferramentas que podem auxiliar aqui no Brasil em causas repetitivas e, claro, ninguém quer cercear o direito de uma pessoa de acessar o sistema judiciário, mas podemos utilizar outras ferramentas para ajudar o juiz e a estrutura pública a julgar com maior eficiência esses casos. Eu não defendo a história da Inteligência Artificial atuando sozinha, mas podemos aliar essa tecnologia para deixar o juiz mais confortável no sentido de deixar as causas que demandam mais complexidade com ele, enquanto o sistema de Inteligência Artificial vai poder filtrar. Nós temos iniciativas tanto no STJ (Superior Tribunal de Justiça) quanto no STF (Supremo Tribunal Federal) de sistemas que estão em fase Beta, fase de aprendizado e absorção de informações, e a ideia é que eles sejam utilizados como acessórios valiosos dos ministros que têm muito trabalho e precisam responder para a sociedade de forma mais efetiva. Só precisamos tomar cuidado. Não queremos esvaziar o poder do juiz, mas também não queremos deixar que as ferramentas sejam obsoletas.

E menos ainda que tomem decisões absurdas.

Sim. Essa resolução do CNJ (Conselho Nacional de Justiça) que foi editada neste ano traz alguns insights já do que espera o Conselho Nacional de Justiça na utilização desta ferramenta. Ela vai passar por uma auditoria mínima para saber se a calibração está de acordo. E, a partir do momento em que emitir uma decisão ou tenha um resultado questionável, ela pode ser desativada de imediato. Precisamos criar mecanismos de revisão humana para garantir que não haja decisões que tragam algum tipo de preconceito ou viés que traga prejuízo.

De volta à LGPD, mesmo sem as penalidades em vigor, já é possível sentir as mudanças? Denúncias têm sido feitas e aceitas pelo Poder Judiciário?

As penalidades de cunho administrativo só vão poder ser aplicadas a partir de agosto do ano que vem, mas o Poder Judiciário e órgãos setoriais, outros órgãos reguladores, podem fiscalizar a partir do momento, inclusive, da entrada em vigor da LGPD. O Poder Judiciário já começa a se manifestar de uma forma tímida, mas muito objetiva. Tivemos um caso específico em que o titular de dados pessoas, com fatos antes da vigência da lei, mas a sentença saiu agora, alegando questões de publicidade indevida, recebimento de ligações indesejadas em face a uma empresa do ramo de construção civil. Na sentença de primeiro grau, a empresa foi condenada ao pagamento de indenização por danos morais no valor de R$ 8 mil porque entendeu a juíza aqui de São Paulo que houve uma importunação e uma coleta de informações indevida que gerou este transtorno indenizado. Então o Poder Judiciário e outros órgãos reguladores, como Anvisa (Agência Nacional de Vigilância Sanitária), ANS (Agência Nacional de Saúde Suplementar), Cade (Conselho Administrativo de Defesa Econômica) e a Anac (Agência Nacional de Aviação Civil), órgãos que sejam setoriais, já estão imbuídos da tarefa de fiscalizar também sob a perspectiva de proteção de dados. Vemos algumas demandas judiciais aparecendo. Em termos administrativos, alguns sites já estão trazendo opiniões e reclamações, se houve consentimento ou não na coleta dos dados, se pediu para excluir e não foi excluído, enfim.

Leia mais sobre deepfake aqui - nem tudo é o que parece

Folha de Londrina · Deepfake - Não podemos mais confiar nos nossos sentidos?