Publicado despacho da ANPD nesta terça; uso de dados para treinar IA em nova política de privacidade. Multa de R$ 50 mil; G1 busca contato com empresa.
A Agência Nacional de Proteção de Dados Pessoais (ANPDP) decidiu que a Meta – gigante da tecnologia responsável pelo Facebook, Instagram e WhatsApp – deve interromper a implementação no Brasil da recente política de privacidade da empresa referente à utilização dos dados pessoais dos cidadãos brasileiros.
Essa medida visa garantir a segurança das informações pessoais dos usuários e reforçar a proteção dos dados pessoais no ambiente digital, seguindo as diretrizes estabelecidas pela ANPDP. É essencial que as empresas respeitem a privacidade e a confidencialidade das informações dos usuários em conformidade com a legislação vigente.
Dados Pessoais e a Política de Privacidade
A decisão recente impacta diretamente a utilização dos dados pessoais para ‘treinar’ sistemas de inteligência artificial generativa, ou seja, para alimentar o banco de respostas automatizadas das IAs. O g1 busca contato com a Meta, que já defendeu a legitimidade de sua política de dados em situações anteriores (consulte abaixo). Instagram e Facebook recorrem às suas fotos e textos para aprimorar a IA: por que essa prática está gerando questionamentos? Como evitar que Instagram e Facebook empreguem suas postagens e imagens para o treinamento de inteligência artificial?
O despacho foi oficializado no ‘Diário Oficial da União’ desta terça-feira (2) e estabelece uma multa diária de R$ 50 mil em caso de descumprimento, devido ao risco iminente de prejuízos graves e irreversíveis ou de difícil reparação aos direitos fundamentais dos titulares afetados. A decisão foi deliberada pelo Conselho Diretor da ANPD, e o documento foi assinado pelo diretor-presidente da entidade, Waldemar Gonçalves. Conforme o despacho, a Meta deve cumprir imediatamente a determinação.
Dentro de um prazo de cinco dias, a partir da notificação, a Meta precisa fornecer ao governo: documentação que comprove a alteração da Política de Privacidade dos seus serviços, excluindo a parte referente ao uso dos dados pessoais para treinar IAs generativas; uma declaração assinada por um representante legal atestando a suspensão do uso dos dados.
Os dados pessoais utilizados para ‘treinar’ a IA ganharam destaque em 4 de junho, quando a Meta anunciou na União Europeia e no Reino Unido que sua política de privacidade passaria a permitir o uso dos dados dos usuários para o treinamento de sua IA. Após a repercussão negativa, a empresa voltou atrás e adiou a alteração da política na Europa, mas não adotou a mesma medida no Brasil. Quando o Instituto de Defesa do Consumidor (Idec) acionou o governo contra a nova política de privacidade desses serviços, a Meta argumentou que o uso das informações para treinar a inteligência artificial está dentro de seu legítimo interesse, bem como no interesse de seus usuários e demais indivíduos.
‘Afirmamos nosso compromisso em desenvolver a inteligência artificial na Meta – nossa coleção de recursos e experiências gerativas de IA juntamente com os modelos que as sustentam – de maneira segura, responsável e em conformidade com as regulamentações de privacidade no Brasil’, declarou a empresa ao g1 em 23 de junho. Os treinamentos de modelos de inteligência artificial demandam o uso de grandes volumes de dados e são essenciais para que, em fases posteriores, sejam capazes de analisar informações e até criar conteúdo de forma autônoma.
Fonte: © G1 – Tecnologia
Comentários sobre este artigo