A Lei Geral de Proteção de Dados (LGPD) entrou em vigor no dia 18 de setembro, após longas e tortuosas articulações entre o Congresso Nacional e o Governo, com o envolvimento de diversos atores e setores da sociedade civil. Suas sanções (multas e penalidades por descumprimento) somente serão aplicadas a partir de Agosto de 2021.
Acompanhar os percalços da Lei desde a criação até sua entrada em vigor teve os dois lados da moeda para juristas afetos à temática de proteção de dados: de um lado, estressantes anos de debates, consultas e audiências públicas, pareceres e emendas – e quantas emendas! De outro, a oportunidade de identificar algumas das principais lacunas da lei para o cumprimento de sua finalidade precípua: permitir aos titulares maior controle e transparência sobre a coleta e utilização de seus dados pessoais por pessoas jurídicas de direito público ou privado.
Bases de dados se transformaram em importantes ativos econômicos não de hoje, e sistemas de inteligência artificial (IA) se alimentam deles para as mais diversas aplicações. As soluções de IA trazem muitos benefícios, especialmente do ponto de vista econômico: aumento da automação e redução de custos operacionais, e até a promoção de maior comodidade para o usuário de um software ou plataforma. Mas também trazem grandes desafios éticos e sociais, de modo que, no contexto das relações raciais, não poderia ser diferente.
Um estudo publicado pela revista Science denunciou o enviesamento racial de um algoritmo utilizado por diversos provedores de saúde nos Estados Unidos.[1] O algoritmo previa quais pacientes precisariam de maiores cuidados médicos, beneficiando pessoas brancas em detrimento de pessoas negras em diferentes situações.
Importante frisar que a raça nunca foi um fator para a tomada de decisão desse algoritmo – o que seria, até mesmo, inconstitucional. Ele utilizava um banco de dados contendo históricos médicos dos pacientes, para prever quanto custariam ao sistema de saúde em uma análise probabilística, aparentemente dotada de neutralidade.
Porém a métrica cega não permitia à tecnologia vislumbrar as razões históricas e socioeconômicas que levavam os pacientes negros a incorrer em custos de saúde mais baixos, porém muito mais recorrentes, do que pacientes brancos. Isto impulsionou os brancos à frente da fila para tratamentos de condições complexas, como problemas renais e diabetes, por exemplo, em comparação a negros nas mesmas condições.
Os desafios sobre o tratamento de dados pessoais sem fins discriminatórios, ilícitos ou abusivos estão acontecendo em todo o mundo. Não apenas na área de saúde, mas também em processos seletivos de admissão e contratação de pessoal; pontuação, modelagem e análise de crédito; classificação de riscos por seguradoras;[2] e questões de segurança pública e justiça criminal.
Mas o que isso representa em matéria de proteção de dados no Brasil? Muita coisa. O intérprete verdadeiramente comprometido com a promoção de uma igualdade substancial no tratamento de dados, vedando a discriminação racial e o abuso que dele podem surgir, precisa se atentar para o fato de que o racismo permeia as diversas normas e instituições jurídicas em caráter estrutural.
Em outras palavras, trabalhar com privacidade e proteção de dados não significa ingressar em uma realidade paralela na qual os titulares de dados adquirem a afirmação de uma pretendida uniformidade perante uns aos outros, ou isonomia quanto às potencialidades danosas de um determinado tratamento – ainda que aplicados os mais sofisticados sistemas de compliance a accountability nos termos da Lei.
A população negra no Brasil, composta por pretos e pardos, vive um panorama de exclusão em matéria de rendimentos, condições de moradia, pobreza, inserção no mercado de trabalho e acesso à educação formal, o que impacta sobremaneira na discussão sobre privacidade e proteção de dados – um debate ainda invisibilizado.
Apesar de os negros representarem 56,2% da nação, constituem a minoria dos cargos gerenciais (29,9%) e a maioria dos postos com menor remuneração (45,3%). Além de alta taxa de analfabetismo (20,7% – o dobro em comparação a pessoas brancas), baixíssima representação política (24,4%) e com grande parcela detendo rendimento mensal domiciliar per capita abaixo da linha da pobreza (32,9%).[3]
Com o recorte de gênero essa situação é ainda mais alarmante: apenas 10% das mulheres negras possuem ensino superior completo. Mulheres negras são extremamente sub-representadas na política (0,5% dos candidatos eleitos em geral) e sobre-representadas no trabalho doméstico (57,6%).[4]
O titular de dados cunhado pela LGPD é, portanto, um sujeito de direito idealizado. Uma construção normativa, teórica e jurisprudencial, forjada pela exclusão material, subjetiva e epistêmica de uma população à margem da sociedade em números e em circunstâncias fáticas.
Significa dizer, em outras palavras, que os conceitos de “privacidade”, “autonomia”, “autodeterminação informativa” e até mesmo “consentimento” não se dão nos mesmos termos entre a população branca e a população não-branca no Brasil.
Esses institutos, a princípio, afirmam a LGPD como um instrumento de controle e transparência para a população sobre o tratamento efetuado por terceiros sobre seus dados pessoais. E qual (não) será a surpresa quando, diante de situações concretas perante a ANPD, Tribunais e demais órgãos fiscalizadores, casos concretos forem categorizados em “inefetividade” da Governança de Dados? Em casos mais extremos, em “violação de direitos” nos Tribunais Superiores.
Este é apenas mais um truque velho do Racismo Estrutural no Direito: (i) uma lei nova surge; (ii) aplica-se nela uma circunscrição de condutas no campo jurídico (no caso da LGPD, obediência ao tripé “bases legais – princípios – direitos do titular”); (iii) afirma-se um sujeito de direito universal (na LGPD, o titular de dados); e (iv) a Lei segue lida e construída – teórica e jurisprudencialmente – por trás de uma suposta neutralidade e igualdade formal.
O resultado é a velha proteção ilusória oferecida a corpos e experiências não-brancas. A “ineficiência” do Direito para a questão racial é o laboratório de hermenêutica e sociologia jurídica para os Tribunais reproduzirem toda sorte de senso-comum teórico sobre o tema.
Trata-se, portanto, de um problema muito mais antigo do que Big Techs, Sociedade da Informação, ou os avanços das tecnologias de Inteligência Artificial e economia Data-Driven: a Teoria do Direito e a jurisprudência, desde o surgimento das faculdades de Direito no Brasil, excluem do seu processo os cidadãos considerados de segunda classe e suas vicissitudes. Não apenas no acesso à justiça, mas na construção normativa de forma ampla.
A partir dessas observações, será que o legislador e o operador do Direito mais atento conseguem perceber o abismo que separa a restrição de oportunidades e os danos causados por um algoritmo de modelagem de crédito, ou uma análise de risco de crédito do consumidor, para a população negra em comparação à branca?
Nós estamos “na esquina da história”[5], e entendemos a importância da LGPD no combate à discriminação racial para tratamento de dados pessoais em um contexto democrático. Mas para isso, é importante antes de tudo reconhecer o contexto racial brasileiro. O momento é de construção epistemológica sobre privacidade e proteção de dados em um país que detém uma dívida histórica gigantesca.
Enquanto o Brasil busca “se entender”, o mercado de tecnologia não nos espera diante do emaranhado confuso de geopolítica, finança global e apropriação corporativa dos relacionamentos mais íntimos protagonizado pelas Big Techs.
Dessa forma, Guidelines e Opinions do European Data Protection Board (EDPD), Working Party 29, Frameworks do ICO e CNIL podem vir a calhar em muitas situações. No entanto, jamais substituirão a necessária construção teórica em perspectiva afrocentrada irradicada na experiência brasileira, sobre os vieses raciais no direito e na tecnologia.
Apenas assim poderemos redefinir essa gramática dos Direitos e do Estado, tomando como ponto de partida as tensões políticas, econômicas, sociais e raciais que nos dizem respeito. Que nesse período de vigência da LGPD avancemos em uma construção coletiva sobre privacidade e proteção de dados nos nossos termos, em um compromisso verdadeiramente antirracista.
A saída antecipada do decano do STF, o ministro Celso de Mello, noticiada com exclusividade pelo JOTA, vai acelerar o processo de escolha pelo presidente Jair Bolsonaro do novo ministro da Corte. Esse é o tema discutido no episódio extra do Sem Precedentes. Ouça:
[1] JEE, Charlotte. A biased medical algorithm favored white people for health-care programs. In: MIT Technology Review. 25 Out. 19. Disponível em: <https://www.technologyreview.com/2019/10/25/132184/a-biased-medical-algorithm-favored-white-people-for-healthcare-programs/>. Acesso em 18 de setembro de 20.
[2] Para um maior aprofundamento sobre classificação dos riscos pelo segurador na era da ciência de dados e estratégias de prevenção à discriminação racial algorítmica, recomendo a leitura: JUNQUEIRA, Thiago. Tratamento de Dados Pessoais e Discriminação Algorítmica nos Seguros. São Paulo: Revista dos Tribunais, 2020.
[3] Cf. IBGE – Instituto Brasileiro de Geografia e Estatística, 2019. Desigualdades sociais por cor ou raça no Brasil. Disponível em: <https://biblioteca.ibge.gov.br/visualizacao/livros/liv101681_informativo.pdf>. Acesso em 19 de setembro de 2020.
[4] A iniciativa PretaLab, liderada por Silvana Bahia, produziu um levantamento que mostra a importância e a urgência de um debate sobre representatividade na tecnologia. Para tanto, compilou um Report contendo estudos e dados sobre a situação das mulheres negras no universo da inovação no Brasil. Disponível em: <https://www.pretalab.com/>. Acesso em 19 de setembro de 2020.
[5] ALMEIDA, Silvio. Entrevista no Programa Roda Viva. Youtube. 22 jun. 2020. Disponível em: < Acesso em 19 de setembro de 2020.