A Autoridade Nacional de Proteção de Dados (ANPD), no último dia 2 de julho, determinou a medida preventiva de imediata suspensão do tratamento de dados pessoais, pela Meta, para treinamento de sistemas de inteligência artificial generativa, no Brasil.
A nova política de privacidade da Meta, em vigor desde 26 de junho, aplicável ao Facebook, Messenger e Instagram, autoriza o uso de dados pessoais para fins de treinamento de sistemas de inteligência artificial (IA).
A ANPD considerou que a conduta da empresa potencialmente viola a LGPD em relação às hipóteses legais, transparência, direitos dos titulares e tratamento de dados pessoais de crianças e adolescentes. Estabeleceu multa diária de R$ 50 mil por dia em caso de descumprimento, em virtude do risco iminente de dano grave e irreparável ou de difícil reparação aos direitos fundamentais dos titulares.
No dia 10 de julho, após pedido de reconsideração da Meta, a ANPD manteve a medida preventiva aplicada impedindo que a empresa utilizasse a nova política de privacidade.
Este artigo resulta de reflexões preliminares sobre os sinais indicados na decisão da ANPD de violação do direito fundamental à proteção de dados pessoais sob uma ótica centrada nos direitos humanos, levantando questionamentos para entender melhor as amplas implicações da decisão e assegurar conformidade com os padrões internacionais de direitos humanos.
Direito à privacidade e padrões internacionais de direitos humanos
Para fazer uma análise mais profunda do direito à privacidade, começo pela compreensão dos principais instrumentos internacionais das Organizações das Nações Unidas (ONU) de promoção e proteção dos direitos humanos, que estão no artigo 12 da Declaração Universal dos Direitos Humanos (DUDH) e no artigo 17 do Pacto Internacional sobre Direitos Civis e Políticos (PIDCP). Estes artigos estabelecem que ninguém será submetido a interferências arbitrárias ou ilegais em sua privacidade, família, lar ou correspondência, nem a ataques ilegais à sua honra e reputação.
Além destes, importante também ter em conta o instrumento internacional são os Princípios Orientadores das Nações Unidas sobre Empresas e Direitos Humanos, que tem como objetivo garantir que as empresas respeitem os direitos humanos em todas as suas operações e que os Estados protejam e remedeiem violações.
A proteção do direito à privacidade é fundamental para o gozo e o exercício dos direitos humanos não só no ambiente offline, mas também online. Para isso, há uma série de instrumentos internacionais, inclusive apoiados pelo Brasil, que visam a assegurar o direito à privacidade na era digital.
Na Assembleia Geral da ONU, destaco as Resoluções 68/167 (2013), 69/166 (2014), 71/199 (2016), 73/179 (2018), 73/179 (2018) e 75/176 (2020), sendo estas duas últimas sobre o direito à privacidade na era digital.
No Conselho de Direitos Humanos, os documentos mais relevantes são as Resoluções 28/16 (2015), 34/7 (2017), 37/2 (2018), 42/15 (2019) sobre o direito à privacidade na era digital, além das Resoluções 32/13 (2016) e 38/7 (2018) sobre a promoção, a proteção e o gozo dos direitos humanos na internet.
Há, portanto, vastos textos nos instrumentos internacionais de direitos humanos sobre o direito à privacidade na era digital que devem ser considerados para a compreensão e análise do problema colocado.
Proteção de dados pessoais, ausência de hipótese legal e aporte dos direitos humanos
O primeiro questionamento que exsurge na decisão da ANPD é a ausência de hipótese legal apropriada para a realização do tratamento de dados pessoais com a finalidade de treinamento de sistemas de IA generativa.
Diante da ausência de hipóteses legais robustas em várias partes do mundo, é fundamental a observância dos padrões internacionais de direitos humanos para a garantia da proteção e o respeito aos direitos fundamentais de todos os indivíduos.
Estes standards não apenas estabelecem um conjunto universal de princípios éticos e legais, mas também proporcionam uma base sólida para enfrentar desafios emergentes na era digital, como a privacidade e a liberdade de expressão.
Ao adotar esses padrões, as sociedades podem mitigar o potencial abuso de poder por parte de entidades públicas e privadas, promovendo uma cultura de transparência, responsabilidade e justiça que não só protege os vulneráveis, mas também fortalece a confiança e a integridade nas estruturas sociais e econômicas globais.
A partir de uma reconfiguração da visão no que tange ao ambiente digital, a ONU reconhece a insuficiência da DUDH para a proteção de direitos humanos neste ambiente (Direitos Humanos Digitais).
Assim, diante da ausência de hipótese legal apropriada para a realização do tratamento de dados pessoais com a finalidade de treinamento de sistemas de IA generativa, é fundamental não só recorrer à legislação interna, mas também aos instrumentos internacionais de direitos humanos, que são conquistas civilizatórias, notadamente com a observância do requisito da legalidade.
Dados pessoais, IA e instrumentos internacionais de proteção da privacidade
A interseção entre a proteção de dados pessoais, o tratamento destes dados e a IA apresenta desafios significativos. A complexidade surge da necessidade de equilibrar a inovação tecnológica com a garantia dos direitos humanos.
Importantes documentos que tratam dessa interrelação entre privacidade e IA são o Relatório do Alto Comissariado das Nações Unidas para os Direitos Humanos 39/29, sobre Privacidade digital 48/31 (2021), que se concentram nos impactos multifacetados do uso cada vez maior da IA sobre o gozo do direito à privacidade e, ainda, o Relatório do Alto Comissariado das Nações Unidas para os Direitos Humanos A/HRC/51/17 (2022).
A ONU (21/03/24), com a aderência de 193 membros da Assembleia Geral, dentre eles o Brasil, aprovou a 1ª Resolução Global sobre IA com o objetivo de estimular as nações a preservar os direitos humanos, proteger informações pessoais e supervisionar a IA para possíveis riscos.
Além disso, a ONU (24/06/24) emitiu Informe sobre Integridade da Informação em Plataformas Digitais, com recomendações para ações de múltiplas partes interessadas.
A Unesco também aborda essas questões a partir de recomendações e Orientações, desde a ética da IA, IA na educação, igualdade de gênero, até a capacitação de governos e do judiciário.
O tema de IA e proteção de dados também foi debatido na Cúpula Regional de Parlamentares da América Latina, que discutiu a agenda regulatória Latino-Americana de IA.
Em conclusão, garantir a proteção de dados pessoais e a privacidade no contexto da IA é essencial e requer uma abordagem integrada com base nos instrumentos internacionais de direitos humanos, como ressaltado pelos relatórios e resoluções da ONU, Unesco e OCDE, que fornecem diretrizes fundamentais para enfrentar os desafios emergentes e assegurar o respeito aos direitos individuais em um mundo cada vez mais digitalizado.
Leitura constitucional sob a lente dos direitos humanos
No contexto do Brasil, a Constituição assegura o direito fundamental à proteção dos dados pessoais (Artigo 5º, LXXIX CF), regulado pela Lei Geral de Proteção de Dados Pessoais (LGPD).
Destaco, na LGPD, alguns fundamentos da disciplina da proteção de dados pessoais, como: (i) autodeterminação informativa (artigo 2º, I, LGPD); (ii) desenvolvimento econômico e tecnológico e a inovação (artigo 2º, V, LGPD); e, (iii) a livre iniciativa, a livre concorrência e a defesa do consumidor (artigo 2º, VI, LGPD).
Fazer uma leitura constitucional alinhada com os instrumentos internacionais de direitos humanos é essencial para garantir a proteção universal dos direitos fundamentais. Isso fortalece a democracia, assegura justiça social e promove a igualdade, garantindo que as leis nacionais respeitem e promovam os padrões globais de direitos humanos. Assim, ao harmonizar a Constituição com essas normas internacionais, cria-se um sistema jurídico mais justo, inclusivo e em sintonia com os valores universais de dignidade e liberdade.
Decisão da ANPD sob a ótica dos direitos humanos: questões emergentes
Suscito alguns questionamentos a partir do aprofundamento da investigação dos indícios apontados na decisão da ANPD de violação do direito fundamental à proteção de dados pessoais, notadamente a partir de uma perspectiva centrada nos direitos humanos, buscando compreender as implicações mais amplas da decisão em relação aos standards internacionais de direitos humanos.
A decisão da ANPD pode desestimular a transparência?
Um dos fundamentos utilizados na decisão da ANPD para a imediata suspensão no Brasil do tratamento de dados pessoais com a finalidade de treinamento de sistemas de IA Generativa foi a ausência da empresa de transparência no tratamento de dados pessoais.
A incorporação da transparência como valor é adotado pelo grupo de peritos de alto nível da Comissão Europeia nas Orientações Éticas para uma IA de Confiança. O documento cita a transparência de dados e a transparência perante o público em geral como um dos requisitos de uma IA de confiança.
A Unesco, em sua Recomendação sobre a Ética da IA, determina a transparência e compreensibilidade dos sistemas de IA como requisitos para a garantia dos direitos humanos (Item 37). Também alude que o nível da transparência deve ser adequado para cada contexto (Item 38).
Além disso, os principais marcos regulatórios têm exigido reforço das medidas de transparência, ambiente seguro e com um nível adequado de transparência, como o Regulamento dos Serviços Digitais (DSA) e o Regulamento da Inteligência Artificial (AI ACT).
A criação, o desenvolvimento e a implementação de sistemas de Inteligência Artificial (IA) exige a coleta de uma quantidade avassaladora de dados. É fato que inúmeras empresas estão utilizando conjuntos de dados desanonimizados para treinar suas IAs, sem oferecer nenhuma transparência sobre esses processos.
Não se trata de alcançar a transparência absoluta para os sistemas de IA, pois estaríamos estipulando padrões inalcançáveis e impraticáveis¹. Trata-se de adotar a transparência como valor fundamental.
A decisão da ANPD de penalizar uma empresa por agir com transparência ao divulgar publicamente sua nova política de privacidade pode desencorajar e mesmo desincentivar a transparência de outras empresas que já treinam sistemas de IA generativa usando dados pessoais.
Este movimento sancionatório pode ocasionar opacidade, daí sim levantando sérias preocupações sobre privacidade e segurança.
O que me parece que ocorrerá é uma inibição, um desencorajamento (chilling effect) das demais empresas, não importando o seu porte, para o investimento em transparência em suas políticas de privacidade pela ameaça de sanção legal.
Portanto, em um campo na vanguarda da inovação e sem regulamentações definidas, a carga regulatória sobre os agentes que são transparentes em suas práticas não deve ser maior do que sobre aqueles que realizam as mesmas práticas, ou até piores, sem transparência.
Decisão da ANPD criará óbices à responsabilização (accountability)?
A accountability (responsabilização) está intimamente relacionada à transparência. Trata-se de um valor ético e moral que deve guiar as ações e o funcionamento dos sistemas de IA.
Devido às características peculiares da IA, a accountability é usada como um metaprincípio² em vez de regras concretas. Isso é visto, por exemplo, na flexibilização da exigência de relatórios de transparência completos, que são substituídos por explicações contextuais da IA³.
A decisão da ANPD pode criar barreiras significativas para a responsabilização das empresas por suas práticas de privacidade. Ao flexibilizar certas exigências, a decisão pode enfraquecer os mecanismos de fiscalização e tornar mais difícil identificar e penalizar infrações, reduzindo a eficácia das políticas de proteção de dados.
A decisão pode incentivar práticas menos rigorosas de proteção de dados, pois as empresas podem sentir-se menos pressionadas a adotar medidas robustas de privacidade. Sem accountability efetiva, o risco de violações de privacidade aumenta, comprometendo a segurança e os direitos dos indivíduos.
Assim, a accountability no ambiente digital está intimamente ligada às boas práticas de governança no tratamento de dados pessoais, contribuindo para uma gestão responsável e ética da informação dos usuários. (artigo 50, LGPD).
Decisão da ANPD pode evitar a redução dos vieses discriminatórios?
A decisão da ANPD de suspender o treinamento de IA com dados pessoais no Brasil pode agravar os vieses discriminatórios (artigo 6, IX, LGPD) nas tecnologias de inteligência artificial.
Os sistemas de IA devem ser treinados com uma grande quantidade de dados. De acordo com o Projeto de Diretrizes Éticas para IA Confiável da Comissão Europeia, “um conjunto de dados incompletos pode não refletir o grupo-alvo que pretende representar”.
A incompletude dos dados pode gerar discriminação. Por isso, as Orientações Éticas para uma IA de Confiança determinam que os dados usados para treinamento da IA devem ser inclusivos e representativos dos grupos vulneráveis.
A Resolução Global para IA das Nações Unidas afirma que “os dados são fundamentais para o desenvolvimento e o funcionamento de sistemas de IA”. Alude ainda que a discriminação deve ser atenuada sem impedir o desenvolvimento, o acesso e o uso da IA por outros usuários.
Sem acesso a dados contextuais e regionais, as empresas brasileiras serão forçadas a usar datasets estrangeiros, muitas vezes predominantemente americanos, que não refletem a diversidade e as especificidades do Brasil.
Essa dependência de dados externos pode perpetuar vieses culturais e sociodemográficos que não são representativos da população brasileira. A IA treinada em contextos estrangeiros tende a falhar na identificação e tratamento justo de questões locais, resultando em decisões enviesadas que podem prejudicar minorias e grupos marginalizados.
A coleta de determinados dados é necessária para que o treinamento da IA não gere um sistema discriminatório 4.
Portanto, ao limitar o acesso a dados nacionais, a decisão da ANPD não apenas impede o desenvolvimento de IA mais justa e inclusiva, mas também compromete a capacidade do Brasil de liderar avanços tecnológicos que atendam às suas próprias necessidades. Uma abordagem equilibrada é necessária para garantir que a proteção de dados e o desenvolvimento tecnológico andem de mãos dadas.
Conclusão
Em suma, é vital que o Brasil adote uma abordagem equilibrada que proteja os dados pessoais, incentive a inovação em IA e promova boas práticas baseadas nos direitos humanos universalmente aceitos, assegurando que a soberania nacional não seja comprometida.
A colaboração regional e o compartilhamento global de melhores práticas são essenciais para desenvolver respostas ágeis e antecipar cenários futuros, garantindo que a regulação da IA seja ética e responsável.
Alinhar-se com os padrões internacionais de direitos humanos não enfraquece a soberania, mas fortalece o compromisso com avanços civilizatórios, promovendo um desenvolvimento tecnológico inclusivo e justo.
A penalização de quem segue as normas internacionais pode parecer contraditória, por isso é fundamental refletir criticamente sobre as decisões atuais para preparar o Brasil para um futuro digital ético e inovador.
___________________
Referências
¹ ZERILLI, John et al. Transparency in algorithmic and human decision-making: is there a double standard?. Philosophy & Technology, v. 32, p. 661-683, 2019.
² DURANTE, Massimo; FLORIDI, Luciano. A legal principles-based framework for AI liability regulation. In: The 2021 yearbook of the digital ethics lab. Cham: Springer International Publishing, 2022. p. 93-112.
³ MILLER, Tim. Explanation in artificial intelligence: Insights from the social sciences. Artificial intelligence, v. 267, p. 1-38, 2019.
4 VAN BEKKUM, Marvin; BORGESIUS, Frederik Zuiderveen. Using sensitive data to prevent discrimination by artificial intelligence: Does the GDPR need a new exception?. Computer Law & Security Review, v. 48, p. 105770, 2023.
Fonte: Consultor Jurídico