quarta-feira, 2 de maio de 2018

A face não tão bela do Big Data - CRISTINA M. A. PASTORE, Gazeta do Povo


GAZETA DO POVO - PR - 25/04

Microtargeting não nos parece tão malévolo quando a Netflix nos sugere o filme perfeito para o momento, certo?

Quem não exclamou algo parecido com “é um absurdo!” sobre o recente escândalo envolvendo Facebook e Cambridge Analytica? Parece inadmissível considerar que empresas estejam usando nossas informações compartilhadas em uma rede social para nos manipular, principalmente porque não os autorizamos a usar estes dados. Mas talvez esta revolta não nos dê a visão mais completa.

No caso específico da Cambridge Analytica, tudo começou com o psicólogo e cientista de dados Michael Kosinsky, interessado em como a personalidade poderia afetar decisões, comportamentos e preferências. Ele criou um aplicativo de Facebook que prometia mapear a personalidade das pessoas a partir de suas respostas, ao mesmo tempo em que coletava dados pessoais dos usuários. A autorização era solicitada com uma frase parecida com “permitir que o aplicativo acesse seus dados de perfil” – certamente o leitor se lembra de já ter visto isso em alguma ocasião. Munido de uma gigante base de dados, Kosinsky criou um algoritmo preditivo relacionando os elementos de personalidade com o comportamento dos usuários no Facebook e divulgou o estudo. Daí ao uso deste tipo de dados e algoritmos para persuadir eleitores, foi um pulo.

Mas o que a estratégia da Cambridge Analytica tem de tão inovadora? Se entendermos eleitores como consumidores, pouca coisa. Eles usam dados individuais para gerar mensagens convincentes dentro do objetivo que têm, que poderia ser vender sabão em pó da marca A, mas é convencer a votar no candidato B. Na eleição de Trump, por exemplo, se você fosse eleitor nos Estados Unidos, poderia ter recebido mensagens dizendo “não vote em ninguém”, “vote em Trump”, “Hillary não é confiável” ou diversas outras, conforme sua propensão a concordar com isso ou aquilo. A estratégia se chama microtargeting e é a evolução da mídia de massa: em vez de enviar a mesma mensagem a muitos consumidores, o uso de dados como filtros direcionadores permite a comunicação de maneira one-to-one, em que a empresa pode dizer exatamente o que o consumidor espera ouvir.

Nós queremos que empresas armazenem nossos dados e os utilizem para gerar experiências de compra personalizadas


Veja por outro lado: microtargeting não nos parece tão malévolo quando a Netflix nos sugere o filme perfeito para o momento, certo? Ou quando buscamos algo específico no Google e a resposta ideal aparece logo no primeiro link patrocinado. Aliás, isso é justamente o que queremos hoje enquanto consumidores: customização. Esperamos que ao acessar o aplicativo de transporte nossas preferências de destino estejam salvas, que ao chegar a uma nova cidade outro aplicativo nos sugira restaurantes de acordo com nossas preferências, e que ao fazermos compras on-line possamos, na sequência, receber ofertas de produtos que “combinem”. Nós queremos justamente que empresas armazenem nossos dados e os utilizem para gerar experiências de compra personalizadas. Qual, então, o problema ético com a Cambridge Analytica, se ela fez essencialmente o mesmo? Falta de transparência? Tratar eleitores como consumidores? Ambos?

A linha limítrofe é tênue. Transparência na coleta de dados é fundamental para que a conduta seja ética e o consumidor não se sinta desrespeitado, mas não vejo, sinceramente, este fator como o centro da discussão. A busca por prazer e felicidade se tornou algo tão intenso nos últimos anos, com objetivos tão imediatistas e de curto prazo, que o risco do compartilhamento de informações parece pequeno no instante da decisão. Tornar a coleta mais transparente não fará com que deixe de acontecer. Veja a configuração do seu celular: quantos aplicativos monitoram sua localização geográfica em tempo real, oferendo em troca rapidez e customização?

Ao lado da “irresponsabilidade” dos consumidores, a forma como os dados são adquiridos é outro dos elementos centrais. A Cambridge Analytica não coletou dados, não pediu autorização aos eleitores ou ofereceu algo em troca; ela simplesmente comprou a base de dados do Facebook, plataforma que vende diversão, e os usou para criar uma comunicação convincente. Isso não pode acontecer em um mercado pautado por respeito, e é preciso que encontremos meios legais de garantir que não se repita no futuro. Regulamentar o acesso aos dados é vital para que não desvirtuemos a essência do uso de Big Data.

Um último ponto: deveria haver um limite para a persuasão. A medida de quão longe uma empresa pode ir utilizando dados dos consumidores não está definida e não sabemos qual a distância entre oferecer um produto e direcionar um voto. Talvez a Cambridge Analytica tenha feito um favor à sociedade, ao iluminar um problema que precisa ser resolvido. É hora de desmistificar o uso de Big Data, aceitar que nossa realidade hoje está apoiada na coleta e armazenamento de dados e, juntos, construir diretrizes que regulamentem seus pormenores.

Temos de lembrar que o uso de Big Data tem seu lado positivo e ele é enorme. Na área de saúde, por exemplo, o compartilhamento de dados de pacientes gera pesquisas que auxiliam no avanço de tratamentos e na criação de condutas adequadas. No direito, há algumas iniciativas que utilizam Big Data para auxiliar advogados e juízes a tomar melhores decisões. Existem índices de violência sendo criados pelo compartilhamento de dados, aqui mesmo no Brasil, cujo objetivo é aumentar a segurança pública. Todos partem de dados individuais para, de alguma forma, influenciar positivamente a vida de outras pessoas. Usar dados para customizar ações não é um problema em si, mas pode se tornar um – e dos grandes – sem atitudes éticas.


Cristina M. A. Pastore é professora e pesquisadora de marketing e comportamento do consumidor na PUCPR, pesquisadora visitante de Neurociência do Consumo no Tech3Lab/HEC Montreal e consultora de gestão estratégica de marketing na Mefil.

Nenhum comentário: