domingo, 18 de dezembro de 2022

ELES, ROBÔS Por Bruna Buffara, MEIO


A natureza do ser humano é tentar antecipar o amanhã. A sobrevivência, o futuro. Isaac Asimov, em 1942, previu a robótica e definiu suas leis em um dos seus contos sci-fi. A filosofia questiona o desenvolvimento tecnológico desalinhado da moral. O cientista da computação Alan Turing criou um teste para definir quando um algoritmo atingisse o comportamento, e patamar, humano com o teste de Turing, em 1950.

O filósofo alemão Hans Jonas, em 1984, percebeu que o desenvolvimento tecnológico desenfreado sem questionamentos e de forma indiscriminada estava causando danos para o mundo. Com isso, desenvolveu o Princípio da Responsabilidade e a heurística do medo. Para ele, o sentimento de medo ao abordar novas tecnologias é o que ajudaria a antecipar as consequências negativas dela. O medo seria um fator motivacional para evitar os danos, principalmente em inteligências artificiais.

Seja por lentes filosóficas ou pela literatura de ficção científica, o amanhã encanta — e a sobrevivência aflige. Oitenta anos depois de Asimov, essa dualidade é o sentimento que prevalece quando se usa o ChatGPT. O lançamento da OpenAI registrou a marca de mais de um milhão de curiosos para testar o robô em cinco dias.

É uma inteligência artificial (IA) fascinante, que se auto referencia, continua conversas, cria histórias, responde dúvidas complexas e, também, gera desinformação. É só criar uma conta e dar início a experiência. O robô faz contas, dá conselhos. Em segundos. Como toda IA rebuscada, é surpreendente, dúbia e moralmente duvidosa. Afinal, um large language model precisa ser treinado com bilhões de inputs de textos, livros e artigos para poder replicar a naturalidade humana da escrita. Se treinado apenas com artigos científicos, sua linguagem será acadêmica. Se treinado em larga escala com materiais errados, irá replicar informações erradas. A qualidade da informação que o alimenta é o que o robô devolve ao mundo no final.

A própria OpenAI anuncia os cuidados necessários ao se abrir o ChatGPT. O robô pode desenvolver um raciocínio coerente para uma pergunta, mas estar completamente errado. Isso acontece porque não existe uma fonte que determine a verdade. E a OpenAI falta com a transparência das suas fontes, não detalha quais as raízes dos dados que usou para alimentá-lo. Além disso, replica-se o viés do material que o alimentou. Ao perguntar “quem ganhou a Copa do Mundo de 2018”, o ChatGPT responde detalhadamente que foi a França. Mesmo que não tenha sido perguntado o esporte e nem se foi uma copa masculina ou feminina. O robô presume a resposta baseado nos dados que conhece. Por isso, aos estudantes interessados em pedir ao robô para escrever uma redação inteira, essa pode não ser a melhor das ideias. Mas será um começo.

relativização da verdade trouxe um enorme problema para as democracias nos últimos anos. A facilidade de se gerar um texto errado, mas convincente, deveria preocupar desde o início do seu desenvolvimento. Tecnologias não são isentas de ideologias, tendem a reproduzi-las. O ChatGPT reconhece esse fato, mas ainda não o corrigiu.

O robô não é a primeira IA da OpenAI, fundada em 2015 por Sam Altman e ele mesmo, o bilionário Elon Musk, que saiu da diretoria em 2018, mas permaneceu como doador. Outra ferramenta do laboratório de pesquisas viralizou no início do ano, o Dall-E. Com prompts de texto, uma IA cria imagens que representam o que foi pedido. No estilo determinado no texto. O Dall-E merece as mesmas ressalvas do ChatGPT. Existe viés nas imagens que são criadas. Pessoas públicas e políticos não são representados de maneira ultra realista justamente para evitar problemas.

A geração de imagens por prompts de texto pode ser um pouco frustrante, pela dificuldade de interpretação de detalhes. Nisso, o ChatGPT funciona como uma espécie de tecla SAP. Ao perguntar a ele “como você descreveria um poste novaiorquino de 1885 para uma IA”, a resposta pode ser inserida em outra IA, o que traz resultados bem mais realistas do que poderíamos ter descrito.

Inovações tecnológicas, vez ou outra, causam deslumbre na sociedade. Esse ano contou com passos largos das inteligências artificiais. Mas é preciso passar pelo deslumbre para enxergar criticamente o que essas tecnologias trarão para o futuro e como poderão ser manipuladas. O uso do ChatGPT está gratuito, porque no momento a OpenAI usa das interações dos usuários para pesquisa própria. É uma etapa de desenvolvimento do robô. Mas, quando pronta, para quem será vendida? E quais serão suas capacidades?

A abordagem tecnofóbica é uma; a de deslumbre, outra. Enquanto o robô não sabe responder perguntas matemáticas básicas, mas cria um código que define que cientistas brancos e homens são melhores, prefiro ficar em cima do muro.



Nenhum comentário: