Revisão de decisões tomadas por algoritmos é ponto polêmico da LGPD

Dispositivo da Lei Geral da Proteção de Dados que garantia revisão de decisão automatizada por pessoa natural foi vetada por presidente; veto ainda pode ser derrubado pelo Congresso

Mie Francine Chiba - Grupo Folha
Mie Francine Chiba - Grupo Folha

 

Revisão de decisões tomadas por algoritmos é ponto polêmico da LGPD
Shutterstock
 



O presidente Jair Bolsonaro converteu em lei a Medida Provisória 869/2018, editada às vésperas do fim do mandato de Michel Temer, que altera a Lei Geral de Proteção de Dados (13.709/2018). A nova lei (13.853/2019) recria a ANPD (Autoridade Nacional de Proteção de Dados) e flexibiliza alguns pontos da LGPD, que entra em vigor em 2020 e estabelece uma série de regras para o tratamento das informações de particulares por entes públicos e privados no Brasil.


O presidente vetou alguns de seus dispositivos. Um dos vetos atingiu regras para a revisão de decisões automatizadas, que podem ir desde a retirada de um conteúdo do Facebook à concessão de crédito a uma pessoa. O texto aprovado pelo Congresso conferia ao cidadão o direito de solicitar essa revisão, e observava que este procedimento só poderia ser feito por pessoa natural. O veto excluiu essa obrigação.


Esse foi um assunto bastante polêmico durante a tramitação da medida provisória no Congresso Nacional. De um lado, ativistas argumentavam que algoritmos revisando algoritmos trariam riscos aos cidadãos. Do outro, empresas de TI e startups argumentaram que tal decisão prejudicaria seus modelos de negócios, especialmente na era da inteligência artificial e da análise de dados (big data). Os vetos ainda podem ser derrubados pelo Congresso. 


Em entrevista à Agência Brasil, o advogado e professor da Data Privacy Brasil, Renato Leite, sublinha que, na prática, o veto fará com que um pedido de revisão de uma decisão automatizada seja processado por outro sistema automatizado, em vez de uma pessoa. “O titular dos dados perde porque se a vida da pessoa já é altamente impactada por algoritmos, então você pode ter um novo sistema para revisar o outro sistema – e todos eles serem pouco transparentes -. Assim, o titular continua sendo sujeito a processos discriminatórios e não terá possibilidade de auditar isso corretamente”, avalia.


A advogada Patrícia Sardeto, coordenadora do curso de Direito da PUCPR Campus Londrina, lembra que a GDPR (General Data Protection Regulation), que estabelece as regras para a proteção de dados na União Europeia, prevê o pedido de revisão de decisões tomadas por algoritmos com intervenção humana. “Entendo que deveria haver uma possibilidade de revisão humana. O melhor é que o veto fosse derrubado.” Dessa forma, caso uma pessoa se sentisse prejudicada por uma decisão tomada de forma exclusivamente automatizada, ela teria o direito de pedir a revisão por uma pessoa natural. Com o veto, ainda não estariam definidos os limites para essa revisão, que poderiam ser estabelecidos mais tarde.


Para Sardeto, não há nenhum empecilho para que a revisão fosse feito por uma pessoa, já que a própria LGDP determina que as empresas tenham uma pessoa encarregada da proteção de dados – o DPO (Data Protection Officer). “Não vejo como algo que atrapalhe a geração de novos negócios, startups.”


Raul Colcher, membro sênior do IEEE (Instituto de Engenheiros Elétricos e Eletrônicos) e CEO da Questera Consultoria, considera a questão “bastante complicada” e diz que se trata de um assunto ainda em discussão em todo o mundo. Na sua visão, por um lado, não é possível assegurar que a decisão tomada por um algoritmo é a correta. Há aspectos éticos envolvidos, e deve-se considerar que algoritmos podem ser utilizados por organismos criminosos e mesmo por governos com objetivos divergentes. 


Mas, ao mesmo tempo, não é nada fácil auditar uma Inteligência Artificial para saber como ela chegou ao resultado. “Quando você fala de submeter um algoritmo à revisão humana, tudo isso passa por mecanismos, árvores neurais que não são facilmente auditáveis. Esse assunto ainda vai evoluir muito. Estamos discutindo isso em um momento que se está discutindo isso em todo o mundo.”


Na visão de Pedro Petri, estudante de Medicina da PUCPR Campus Londrina e sócio da startup de healthtech Zhealth, é possível que o processo de revisão de decisões tomadas por algoritmos por pessoas encareceria o processo. Afinal, a análise de dados feita por computador tem justamente o objetivo de agilizar o trabalho feito por um cientista de dados. Além disso, a própria LGPD possui mecanismos para permitir que o titular tenha o controle de seus dados e impedir que o processamento desses dados seja feito se o usuário assim deseja.


Para Lucas Ribeiro, sócio e diretor da ROIT Consultoria e Contabilidade, de Curitiba, seria inviável para empresas com um volume gigantesco de usuários que decisões automatizadas fossem revisadas por pessoas. Isso aumentaria os custos, que acabariam sendo repassados para os próprios clientes.


Na sua visão, uma decisão é muito mais segura quando tomada por um robô que por uma pessoa. Não se pode garantir que a Inteligência Artificial terá 100% de assertividade, mas a tecnologia tende a se aprimorar ao longo do tempo, à medida que os seus desvios são corrigidos tomando como ponto de partida os próprios erros e acertos, em um processo de aprendizagem. “Diferente do ser humano, que aprende com a repetição, a IA não fica estagnada”, diz Ribeiro. (Com agências)


Vetos também atingem sanções a quem viola a Lei


Outro ponto que foi vetado na  Lei 13.853/2019 foi aquele que protegia os dados pessoais de requerentes de acesso à informação, uma demanda da sociedade civil. O objetivo do dispositivo era impedir que um cidadão fosse retaliado ao fazer questionamentos ou tivesse receio de uma medida deste tipo.


Outros vetos derrubaram punições que poderiam ser aplicadas pela Autoridade caso um ente responsável pelo tratamento de dados violasse o disposto na Lei. Entre elas a interrupção parcial do funcionamento do banco de dados (por seis meses, prorrogável por igual período) e a proibição parcial e total de atividades relacionados ao tratamento de dados. Outro item excluído previa a aplicação de parte das punições pela Autoridade também a órgãos públicos. (Das agências)

Como você avalia o conteúdo que acabou ler?

Pouco satisfeito
Satisfeito
Muito satisfeito

Últimas notícias

Continue lendo