Recentemente, a Autoridade Nacional de Proteção de Dados (ANPD) tomou uma decisão importante ao autuar a Meta, empresa responsável pelo Facebook, Instagram e WhatsApp, por utilizar dados de brasileiros para treinar suas inteligências artificiais. A medida impôs a suspensão imediata da política de privacidade que permitia esse uso e estabeleceu uma multa de R$ 50 mil por dia de descumprimento, o que convenhamos, não parece ser um valor expressivo para a empresa. A Meta, que ainda pode recorrer, afirmou em nota que cumpre as leis de privacidade do Brasil.
Essa notícia trouxe à tona uma discussão relevante: o uso de dados pessoais para treinar inteligências artificiais. No entanto, é crucial entender que esta prática não é uma novidade nas redes sociais. Desde que os algoritmos começaram a ser utilizados para recomendar conteúdo, os dados dos usuários já vinham sendo empregados para alimentar sistemas de inteligência artificial.
Uma Prática Antiga com Nova Relevância
Os algoritmos de recomendação, que são uma forma de inteligência artificial, têm sido parte integral das redes sociais há anos. Sem dúvidas você já reparou que o conteúdo que você recebe no seu feed parece que foi feito especificamente para você.
Isso é resultado do machine learning, uma disciplina da inteligência artificial que permite aos sistemas aprenderem e fazerem previsões com base em dados. Esses algoritmos analisam suas interações, suas preferências e seu comportamento online para personalizar o conteúdo que você vê. No entanto, essa personalização também cria o fenômeno das bolhas informacionais, em que os usuários são expostos apenas a informações que confirmam suas crenças e interesses, limitando a diversidade de conteúdo e opiniões. Esse é um exemplo claro de como a IA já permeia nosso dia a dia, moldando a maneira como consumimos informação e interagimos online.
A atual atenção que a prática está recebendo se deve, em grande parte, ao surgimento das inteligências artificiais generativas, como os modelos de linguagem avançados e os criadores de imagens digitais. Essas novas formas de IA são mais palpáveis para o público, tornando a discussão sobre o uso de dados pessoais mais visível e trazendo-a à tona.
A Complexidade do Consentimento e a Transparência
A Lei Geral de Proteção de Dados (LGPD) do Brasil estabelece princípios como a transparência e a necessidade de consentimento para o tratamento de dados pessoais. No entanto, aplicar esses princípios ao treinamento de IA gera desafios significativos. O consentimento é um processo revogável e, tecnicamente, não é simples remover dados de uma base já utilizada para treinar um modelo. Isso exige retrabalhar o modelo para desconsiderar os dados removidos, um processo demorado e complexo.
Além disso, garantir um volume e uma diversidade adequados na base de treinamento é essencial para mitigar riscos de viés e discriminação nos modelos de IA. A exigência de consentimento pode dificultar a obtenção de uma base de dados suficientemente ampla e variada, potencialmente resultando em modelos de IA limitados e enviesados.
O Futuro da Regulação e a Importância da Discussão
A decisão da ANPD é um marco importante e envia uma mensagem clara sobre a necessidade de regulação e supervisão no uso de dados pessoais para treinamentos de IA. É um capítulo significativo na longa série sobre regulamentação de IA no Brasil, e certamente haverá muitos outros desdobramentos.
Enquanto aguardamos as próximas cenas, é essencial que a discussão continue. O uso de dados para treinar IAs é uma prática antiga que agora ganha nova visibilidade e complexidade com o advento das IAs generativas. Precisamos de uma abordagem equilibrada que proteja os direitos dos usuários sem inviabilizar o desenvolvimento tecnológico.
A Santa Clara está atenta a essas discussões e às novas tecnologias que surgem diariamente, pronta para acompanhar e adaptar-se às mudanças no cenário digital.
Tags: