A Meta, dona do Facebook e Instagram, planeja utilizar publicações dos usuários para treinar seus modelos de inteligência artificial (IA). A iniciativa, porém, enfrenta entraves legais na Europa, onde a companhia precisa lidar com regras mais rígidas de proteção de dados.
Inicialmente programado para começar hoje, o treinamento da IA foi adiado após a Comissão Irlandesa de Proteção de Dados (DPC) intervir com 11 ações judiciais. Stefano Fratta, diretor global de engajamento de políticas de privacidade da Meta, classificou a decisão como “desapontadora”.
A empresa argumenta que sua abordagem é transparente e oferece mais controle aos usuários do que a adotada por concorrentes como Google e OpenAI, que já treinam seus modelos com dados europeus. No entanto, o grupo de direitos digitais Noyb contesta essa afirmação, alegando que a Meta “ignora o direito fundamental à proteção de dados e privacidade dos usuários europeus”.
Para usuários da União Europeia e do Reino Unido, amparados por leis de proteção de dados mais rígidas, haverá a possibilidade de se oporem ao uso de seus dados. A Meta notificará os usuários novamente antes de implementar as mudanças e disponibilizará um formulário para registro de objeção. O aceite do pedido, no entanto, não é garantido.
Já para usuários fora desses países, não há opção de opt-out. O adiamento também afetou o lançamento do Meta AI na Europa. “Sem incluir informações locais, só poderíamos oferecer às pessoas [na Europa] uma experiência de segunda categoria”, explicou Fratta. “Isso significa que não podemos lançar o Meta AI na Europa no momento”.
A Meta afirma que continuará trabalhando com a DPC para que os usuários europeus tenham acesso ao mesmo nível de inovação em IA que o resto do mundo.
A iniciativa, que já enfrenta entraves legais na Europa, também levanta questionamentos no Brasil, onde a Lei Geral de Proteção de Dados Pessoais (LGPD) entrou em vigor em 2020.
Pontos a serem ponderados no Brasil:
1. Adequação à LGPD:
- A LGPD garante aos brasileiros o direito à transparência sobre como seus dados são coletados e utilizados. A Meta precisará detalhar claramente como as publicações dos usuários serão utilizadas para treinar a IA, demonstrando que a iniciativa está em conformidade com os princípios da LGPD, como a finalidade específica, adequação e necessidade, além da segurança e não discriminação.
- A empresa também deve obter o consentimento livre e expresso dos usuários antes de utilizar seus dados para treinar a IA. Esse consentimento deve ser claro, específico e informado, permitindo que os usuários compreendam as implicações do compartilhamento de seus dados.
2. Impacto na privacidade dos usuários:
- A utilização de dados pessoais para treinar a IA levanta preocupações sobre a privacidade dos usuários. É importante que a Meta implemente medidas robustas para proteger os dados dos usuários, como a anonimização e a pseudonimização, e que limite a coleta e o uso de dados ao mínimo necessário para o treinamento da IA.
- A empresa também deve ser transparente sobre os algoritmos utilizados para treinar a IA e como eles podem afetar os resultados. É fundamental que esses algoritmos sejam justos, imparciais e não discriminatórios, evitando vieses que possam prejudicar determinados grupos de usuários.
3. Participação da sociedade civil:
- É fundamental que a sociedade civil brasileira esteja envolvida na discussão sobre o uso de dados de usuários para treinar a IA. A Meta deve realizar consultas públicas e debates com especialistas e representantes da sociedade para garantir que suas práticas estejam alinhadas com os valores e expectativas da população brasileira.
- O Congresso Nacional e outras entidades relevantes também devem debater a questão e propor medidas para garantir a proteção dos dados dos usuários e a promoção da inovação responsável em IA.
4. Oportunidades para o Brasil:
- O Brasil tem um grande potencial para se tornar um polo de desenvolvimento de IA. A Meta, com sua expertise em dados e tecnologia, pode contribuir para o desenvolvimento da IA no país, desde que suas práticas estejam em conformidade com a LGPD e com os princípios éticos da IA.
- A empresa pode colaborar com universidades, centros de pesquisa e empresas brasileiras para desenvolver soluções inovadoras em IA que atendam às necessidades do país.
5. Ações dos usuários:
- Os usuários brasileiros devem se informar sobre como seus dados estão sendo utilizados pelas plataformas online e tomar medidas para proteger sua privacidade.
- É importante ler atentamente os termos de uso e políticas de privacidade das plataformas e utilizar as ferramentas disponíveis para controlar o compartilhamento de dados.
- Os usuários também podem optar por não compartilhar publicações que considerem sensíveis ou privadas.
A utilização de dados de usuários para treinar a IA é um tema complexo que levanta questões importantes sobre privacidade, ética e inovação. No Brasil, a LGPD oferece um marco legal para garantir a proteção dos dados dos usuários, mas é fundamental que a sociedade civil, o governo e as empresas trabalhem em conjunto para garantir que a IA seja desenvolvida e utilizada de forma responsável e ética.