Contaminação algorítmica

 

Como podem os consumidores se protegerem de violações de sua privacidade e intimidade, causadas por empresas que usam dados ilicitamente obtidos para treinar algoritmos? Há um mecanismo radical chamado de destruição algorítmica ou algorithmic disgorgement ou simplesmente exclusão de modelo de aprendizado de máquina. Tal eliminação pode ser percebida como remédio ou direito, sendo conceituada como a destruição ou expropriação de um conjunto de dados algorítmicos, modelos ou outros produtos de trabalho criados por meios ilícitos.

Trata-se de um remédio preventivo extracompensatório que busca desencorajar e desfazer os meios tecnológicos danosos, privando os agentes dos benefícios de suas práticas ilícitas. E, recentemente a

DFTC ou Federal Trade Commission introduziu tal remédio para inibir as violações à privacidade dos consumidores.

Enfim, na proteção da privacidade digital é observável uma mitigação acentuada da efetividade dos direitos de exclusão (direito do esquecimento e direito ao apagamento) que são traduzidos por right to be forgotten e rigth to erasure.

O titular dos dados pode invocar seu direito de apagar quaisquer links ou cópia ou replicação de dados pessoais e, corrobora a LGPD no mesmo sentido. Mas, infelizmente, uma vez tornados públicos os

dados torna-se mais difíceis de apagar. Basta recordar que mesmo os links removidos do Google podem ainda ser utilizados como parte do algoritmo de pesquisa da corporação, mesmo após haver determinação judicial de remoção dos links. O que pode certamente influenciar os futuros resultados de pesquisa.

A ideia de algorithmic disgorgement como remédio ganhou força em 2021, com a ação da FTC contra a Everalbum, Inc,9 que havia criado uma ferramenta de reconhecimento facial para seu aplicativo, oferecendo aos usuários uma mensagem permitindo que escolhessem se desejavam ativar ou desativar o recurso. No entanto, a FTC descobriu que a Ever não concedia aos usuários uma escolha real, pois o recurso de reconhecimento facial foi ativado por padrão e não havia como desativá-lo. A Ever se valeu das fotos desses usuários para treinar seus modelos de aprendizado de máquina para reconhecimento facial, possivelmente sem o consentimento informado dos usuários.

Além disso, coletou outras imagens de usuários e as combinou com dados disponíveis publicamente para criar uma variedade de conjuntos de dados utilizados para desenvolver a tecnologia de reconhecimento facial.

No mais, mesmo após eventual desativação, a empresa não excluiu fotos e vídeos, mas armazenou-os. Além de exigir que a Ever excluísse as fotos e vídeos dos usuários que solicitaram a desativação de suas contas, a FTC também determinou que a empresa eliminasse todas as incorporações faciais derivadas da coleta de informações biométricas dos usuários que não consentiram a isto, assim como qualquer produto de trabalho afetado. Em última análise, como remédio para violação da privacidade, a FTC exigiu a exclusão da máquina dos modelos de aprendizado desenvolvidos com a utilização antijurídica de dados - uma radical destruição algorítmica.

Conclui Rosenvald que é cada vez mais hercúlea a tarefa de mensurar a extensão de violações a privacidade, sendo até possível que jamais tenhamos conhecimento de que nossos dados estão sendo usados para desenvolver um sistema de aprendizado de máquina ou até remanesça como uma sombra persistente, mesmo depois de exclusão destes dados.

 

Referências:

ROSENVALD, Nelson. O disgorgement algorítmico um novo remédio na tutela da privacidade digital. Disponível em: https://www.migalhas.com.br/coluna/migalhas-de-protecao-de-dados/379075/disgorgement-algoritmico-remedio-na-tutela-da-privacidade-digital  Acesso e 3.5.2923.

GiseleLeite
Enviado por GiseleLeite em 07/05/2024
Código do texto: T8058474
Classificação de conteúdo: seguro
Copyright © 2024. Todos os direitos reservados.
Você não pode copiar, exibir, distribuir, executar, criar obras derivadas nem fazer uso comercial desta obra sem a devida permissão do autor.