Consentimento explícito é necessário para uso de dados pessoais no tratamento de IA, não deve ser pressuposto, e opção de recusa deve ser clara nos termos e condições do design.
O Instituto de Defesa dos Consumidores (Idec) expressou surpresa diante da decisão da rede social X de treinar sua inteligência artificial sem oferecer opção aos usuários que não desejam que seus dados e mensagens sejam utilizados para esse fim. Essa medida levanta preocupações sobre a privacidade e o controle dos usuários sobre suas informações pessoais.
A decisão da rede social X de utilizar a inteligência artificial para treinar seu sistema sem consentimento explícito dos usuários é um exemplo de como as tecnologias de IA podem ser implementadas de forma questionável. Além disso, a falta de opção para os usuários que não desejam participar desse treinamento é um problema que precisa ser abordado. A transparência e o controle dos usuários sobre suas informações são fundamentais para garantir que as tecnologias de IA sejam utilizadas de forma ética e responsável.
Inteligência Artificial: Um Desafio para a Privacidade dos Usuários
A atualização dos termos e condições da rede social X não oferece uma opção de recusa clara para os consumidores que acessam a plataforma pelo celular. O botão ‘opt-out’ (excluir) só está disponível na versão para desktop, o que foi notado pelo Idec. Essa mudança entra em vigor em 15 de novembro e levanta preocupações sobre a privacidade dos usuários.
A prática adotada pela rede social é considerada um design malicioso, pois há uma pré-seleção da opção de que os consumidores aceitam o uso de seus dados para fins de tratamento de inteligência artificial (IA). No entanto, o consentimento não deveria ser pressuposto e sim explícito, além de ser livre e informado, afirma o Idec. Isso é um claro exemplo de como as tecnologias de IA podem ser usadas de forma questionável.
O Idec também destaca que é preocupante a maneira como as plataformas querem avançar essas tecnologias à custa de direitos e de dados pessoais dos usuários. Isso porque a medida segue a mesma cartilha escrita pela Meta, que teve o tratamento de dados pessoais para treinamento de IA suspenso de forma cautelar pela Autoridade Nacional de Proteção de Dados (ANPD) em julho.
Privacidade e Inteligência Artificial: Um Desafio para as Empresas
A Meta apresentou um plano de conformidade à ANPD e pôde retomar a função, mas com restrições. A empresa se comprometeu a não realizar tratamento de dados de crianças e adolescentes e implementar medidas de transparência, além de simplificar a opção de recusa do uso de dados pessoais. No entanto, a ANPD ainda está preparando seu posicionamento sobre o assunto.
A questão da privacidade e da inteligência artificial é um desafio para as empresas que buscam avançar nessas tecnologias. É fundamental que as empresas respeitem os direitos dos usuários e obtenham consentimento explícito para o uso de seus dados. Além disso, é importante que as empresas sejam transparentes sobre como os dados são usados e forneçam opções claras para os usuários recusarem o uso de seus dados.
A inteligência artificial (IA) é uma tecnologia em constante evolução, e é fundamental que as empresas usem essas tecnologias de forma responsável e ética. O uso de dados pessoais para treinamento de IA é um exemplo de como as empresas podem usar essas tecnologias de forma questionável. É importante que as empresas respeitem os direitos dos usuários e obtenham consentimento explícito para o uso de seus dados.
Fonte: © G1 – Tecnologia
Comentários sobre este artigo