quinta-feira, 25 de agosto de 2016

Ainda não há defesa do consumidor contra o poder dos algoritmos, Convergência Digital

24/08/2016 às 15:33


Escrito por: Luís Osvaldo Grossmann
Fonte: Convergência Digital

Do resultado de buscas ‘sob medida’ à inclusão deste ou daquele artigo nas ‘timelines’, o uso de algoritmos na vida conectada já passou para decisões sobre empréstimos ou sobre contratações de trabalhadores. Mas se o uso dessa ferramenta matemática se espalha com rapidez, também cresce uma aparente reação à ‘automatização’ das decisões Como destacado nesta quarta-feira, 24/08, em seminário promovido pelo NIC.br, há diferentes discussões ao redor do mundo sobre como deve ser enfrentada essa questão, se por novas regras, leis ou práticas, ou por maior transparência no próprio desenvolvimento das equações. 
 
“Os algoritmos não são só uma questão tecnologia, mas trazem associadas questões políticas, econômicas e de relações sociais. A Europa discute uma proposta de regulação, uma espécie de adaptação do direito ao esquecimento para um ‘direito à explicação’, de como um algoritmo recomenda ou rejeita um empregado, por exemplo. Nos Estados Unidos, há debates desde a criação de agência reguladora sobre o tema como de inclusão de certas características no desenvolvimento, algo como ‘fairness by design’ para que o código não cometa injustiças”, aponta o professor Virgilio Almeida, ex-secretário de políticas de informática e ex-coordenador do CGI.br.
 
Ele mesmo é co-autor, junto a Camila Araújo e Wagner Meira, todos da UFMG, de um estudo publicado no início deste mês sobre os estereótipos de beleza que também acabam absorvidos mesmo pelos algoritmos. O estudo avaliou como ferramentas de busca como Google ou Bing resultam em mulheres brancas e jovens como símbolo de beleza, enquanto mulheres negras, asiáticas ou mais velhas são consideradas feias. 
 
A partir das primeiras 50 imagens de “mulher bonita” e “mulher feia” em dúzias de versões dos motores de busca em diferentes países, o estudo submeteu as mais de 2 mil imagens coletadas a um programa (Face++) que estima idade, raça e gênero com acuidade de 90%. Como resultado, as negras foram consideradas menos atraentes em 86% dos países avaliados via Google, inclusive alguns com maioria negra, como Nigéria, Angola e no Brasil.
 
Nos EUA, 80% das imagens de ‘beleza’ foram associadas a mulheres brancas e com idade entre 19 e 28 anos. Em asiáticos como Japão e Malásia, em geral a ‘beleza’ só vai até os 23 anos.  O alerta feito no painel do VII Seminário de Proteção à Privacidade e aos Dados Pessoais é no sentido de que algoritmos são cada vez mais usados para automatizar decisões, mas carregam até mesmo os preconceitos que resultam em resultados tendenciosos. Daí os riscos inerentes a essa automação de empréstimos ou empregos, e que já chega a decisões sobre saúde. 
 
“Os algoritmos são novos meios de produção, mas são obscuros, definidos como segredos comerciais ou mesmo de Estado, com operações ilegíveis de hierarquizar e categorizar os dados. E essa obscuridade dos algoritmos fragiliza ou mesmo impede a garantia e defesa dos direitos”, diz a pesquisadora da Unicamp e da Lavits, Marta Kanashiro. 
 
Para os participantes, mesmo uma (ainda em discussão) lei de proteção dos dados pessoais não chega a garantir defesa dos usuários. Não por menos, o “remédio” até aqui mais recomendado é aprender a própria tecnologia. “O usuário precisa ser cada vez mais educado no uso das tecnologias, de forma a se aproximar cada vez mais do funcionamento técnico, portanto é necessário algum tipo de educação”, insistiu a 

Nenhum comentário: