Por Pedro Doria Nas contas da PWC, uma das principais consultorias do mundo, inteligência artificial poderá injetar quase US$ 16 trilhões na economia global em 2030. Um terço viria de aumento da produção e, o outro quinhão, do impacto no consumo. É mais do que produzem, por ano, China e Índia juntas. Mas o valor bonito esconde outro número ali dentro — parte do lucro virá com economia de gente. Os sistemas assumirão trabalho que, antes, pessoas assalariadas faziam. A expectativa, de cara, é que os maiores ganhos virão no setor de saúde e no automotivo, seguidos de financeiro, logística e mídia. As empresas desses ramos que não começarem rápido a investir em IA ficarão para trás. Em não muito tempo veremos carros sem motoristas, diagnósticos feitos por computador, planejamento financeiro idem e publicidade inteligente. Mas, se empresas precisam investir, países terão também de se preparar para um grande deslocamento profissional. E é incrível. Afinal, para a maioria das pessoas a tecnologia só entrou no radar nestes últimos meses. A pedra filosofal O sonho inicial da computação foi a busca de uma inteligência artificial. A corrida dominou os anos 1950 e 60, computadores eram chamados de cérebros eletrônicos. Nas universidades, boa parte dos departamentos investia pesado para encontrar uma pedra filosofal, a maneira de fazer com que os circuitos fossem capazes de emular o comportamento da mente. Pensar por conta própria, chegar a conclusões inteligentes. Toda sorte de caminhos foi testada sem chegar a qualquer resultado. Esta busca alimentou a ficção científica daquelas duas décadas, com os robôs de Isaac Asimov, o HAL 9000 de Arthur C. Clarke, ou o Blade Runner de Phillip K. Dick. Foi o desenvolvimento do microchip e um grupo de engenheiros ligados à contracultura hippie, no Vale do Silício, que mudaram a rota da computação. Imaginaram não máquinas capazes de pensar, mas máquinas capazes de fazer com que pessoas transcendessem em suas possibilidades. Que pudessem fazer mais, melhor. Esse grupo transformou computadores em instrumentos pessoais, em produtos de consumo na década de 1970, que vinte anos depois permitiram a todos que nos ligássemos uns aos outros pela internet. Os computadores pessoais, agora, andam conosco no bolso. Mas, em 2012, o Google pôs no ar um sistema que era capaz de reconhecer gatos em fotos e vídeos. Dois anos depois, o Facebook anunciou aos usuários que a rede poderia reconhecer o rosto de nossos amigos nas fotos que publicávamos. Faz só nove anos, parece que foi há muito mais. E assim, lentamente, inteligência artificial foi se inserindo em nossos cotidianos sem que muitos a percebessem. Um algoritmo aqui, um filtro de foto ali, uma assistente digital que entende a fala acolá. Os apps de texto como ChatGPT e de imagem, caso do Midjourney, mudaram a percepção por completo no ano passado. E todo mundo percebeu que o desenvolvimento acelerou. Que vai continuar ganhando velocidade a cada nova versão. O que talvez tenha passado despercebido é que, na origem, todos esses sistemas datam dos anos 50. A pedra filosofal foi descoberta lá atrás e nem os primeiros cientistas da computação o haviam percebido. Máquinas que aprendem A inteligência artificial que conhecemos foi inventada por Arthur Lee Samuel, um matemático que trabalhava na IBM, em 1959, quando escreveu um vídeo game. Era um jogo de damas digital com uma peculiaridade. Ele ficava melhor a cada partida — o jogo aprendia. Como naquelas máquinas primitivas a memória era parca, Samuel desenvolveu um método para o computador sintetizar em poucas informações cada jogada, cada possibilidade de distribuição no tabuleiro, cada caminho novo que aprendia para vencer. Quando quase trinta anos depois o Deep Blue da mesma IBM venceu o campeão Garry Kasparov numa partida de xadrez, a técnica empregada era a mesma. A diferença é que entre 59 e 1997 houve um salto na capacidade de processamento dos computadores e, assim, as máquinas foram capazes de dominar a complexidade do xadrez. O que faltava àqueles primeiros engenheiros não era descobrir o jeito de fazer computadores pensar. Era dar a eles capacidade de processar muita informação simultânea em frações de segundo. Demorou mais vinte anos para, em 2016, uma outra máquina vencer um humano no ainda mais abstrato jogo Go. O desenvolvimento da inteligência artificial no século 21 pode ser dividido em três fases. A primeira é a entrada da Big Data no jogo. Logo que a internet se popularizou nasceu junto o problema de como achar informação ali. Eram muitas páginas web, cada qual com sua estrutura. Os sites de busca iniciais não conseguiam resolver o problema da hierarquia. De como informar qual página era mais adequada para aquele tema. Em 1988, o Google fez isso. Obra de dois doutorandos em engenharia da computação da Universidade de Stanford, a mesma onde Arthur Samuel havia dado aula até o fim da vida. Um dos truques da eficiência do Google, após um tempo, era o fato de que o sistema havia, em essência, copiado quase toda a web em suas próprias máquinas. Já no início do século, era uma jovem e promissora companhia que tinha uma imensa quantidade de dados desorganizados armazenados. De um lado, aquele bando de páginas. Do outro, informação sobre que pessoa clicava no quê. Para se tornar lucrativa, a empresa precisava criar um sistema de publicidade que mostraria o anúncio certo para cada usuário. O que aprendizado de máquina faz, em essência, é isso. Pode analisar os padrões de movimento das peças num tabuleiro de jogo. Aí precisará entender qual é o lance seguinte mais provável de levar à vitória. Após ver centenas de milhares, milhões de partidas, ele vai dominando. Afinal, faz contas muito rápido. Qual, então, a probabilidade de alguém que faz buscas por um tema se interessar por outro não necessariamente correlato? Após analisar milhões de buscas de pessoas muito diferentes ao longo de muitos anos, o sistema também vai aprendendo. E é capaz de inserir propaganda com mais chances de ser clicada. Naquela mesma primeira década do século, a técnica de aprendizado de máquina foi aplicada também pelo Facebook, a rede social que inaugurou o uso de algoritmos que escolhem qual postagem vai nos levar a maior interação. Este processo foi acelerado a partir de 2006, com a invenção do Deep Learning, aprendizado profundo. Em essência é uma técnica inspirada na forma com que neurônios funcionam para resumir aquilo que a máquina aprende. Este tipo de aprendizado de máquina é particularmente eficaz, até por ser inspirado em nossos cérebros, em resolver o tipo de problema que nós resolvemos. É do Deep Learning que vem a segunda geração da inteligência artificial: aquela capaz de reconhecer imagens, voz ou texto. Do carro autônomo ao Google Photos à Alexa ou Siri, todas tecnologias surgidas após 2010. Agora, entramos na era em que as máquinas deram novo salto. Não apenas reconhecem imagens, voz ou texto mas também são capazes de criá-las. Gen-AI ou inteligência artificial generativa. Máquinas que alucinam Ocorre que inteligência artificial não é de fato inteligência. Assim como lá atrás, no jogo de damas da IBM, cada um destes sistemas segue sendo uma calculadora de probabilidades. O que muda é a proporção. Lançado em 2019, a versão 2 do GPT, o modelo de linguagem escrita da empresa OpenAI, trazia embutidos 1,5 bilhão de parâmetros. LLMs como o GPT são Grandes Modelos de Linguagem — a sigla vem da expressão em inglês. Estes LLMs são uma aplicação de Deep Learning para texto escrito. O modelo é alimentado com uma quantidade imensa de textos de pessoas, em geral coletados livremente da internet. Então, comparando cada frase de cada texto com cada frase de cada outro texto, o sistema vai aprendendo tanto como criar estrutura gramatical como sobre os assuntos diversos tratados naquela base de dados. As lições que aprende ele as resume nestes parâmetros — 1,5 bilhão no GPT 2. Ou 170 trilhões no GPT 4, que está por trás da versão paga atual do ChatGPT. Sim: a diferença é muito grande. Mas não se trata de uma inteligência. Continua sendo uma calculadora de probabilidades incapaz de pensar logicamente. O que ele faz é compreender a pergunta que lhe foi feita e, a partir dali, escrever uma palavra, então encaixar a palavra mais provável de aparecer após aquela anterior, e assim sequencialmente. A jornalista Cora Rónai costuma brincar com o que o ChatGPT diz quando perguntado quem ela é. Fala de uma artista plástica brasileira dos anos 1950 — uma pessoa que jamais existiu. O fotógrafo Jairo Goldflus também relatava esses dias a própria experiência com o aplicativo, que inventou para ele um alter-ego, também fotógrafo paulistano de nome Jairo Goldflus. Mas este migrou para Los Angeles aos 18 e seguiu carreira na publicidade trabalhando em campanhas de Nike, Adidas e Apple. Não é o Jairo real. São alucinações — este é o termo técnico. Quando não tem informação o suficiente entre seus bilhões ou trilhões de parâmetros, o ChatGPT segue fazendo aquilo que sabe fazer. Encadeia palavras, uma após a outra, baseando-se na probabilidade que depreendeu a partir dos bancos de dados com os quais foi alimentado. Não tendo informação, inventa. Inventa sem saber que está inventando. Porque não pensa, não sabe, só lista palavras uma a uma calculando probabilidade. Alucinações de inteligência artificial não são exclusivas de modelos de texto. O retrato de uma mulher apavorante, ao que parece baseado em ninguém que exista, foi percebido se repetindo nas imagens de um aplicativo criador de imagens. Ela foi batizada de Loab. Embora saibamos que estes sistemas de inteligência artificial alucinam, em geral não conseguimos descobrir que caminho os levou até a história inventada ou o rosto terrível que se repete aparentemente sem razão. É que a maioria das aplicações são caixas pretas. Os sistemas são alimentados com grandes bancos de dados e aí criam seus parâmetros. Estes parâmetros não são compreensíveis nem para os programadores que os criaram. A inteligência artificial cria um texto ou uma imagem mas, em geral, não temos como saber qual o ‘raciocínio’ que seguiu. Quando o algoritmo ameaça Ser caixa preta é um problema. Afinal, o uso destas tecnologias que nasceram na esteira do aprendizado de máquina não se limita à criação de textos ou imagens. Anticorpos, proteínas e mesmo remédios já estão sendo criados seguindo rigorosamente o mesmo processo. Nenhum foi aprovado ainda para uso humano, mas acontecerá em breve. E há aplicações que não passam pela criação de algo novo mas de análise de padrões. Confirmação da identidade de alguém pelo rosto em aeroportos. A decisão do risco que uma pessoa oferece para uma seguradora ou para um banco que precisa definir se concederá um empréstimo. Vai além — IAs podem ser usadas para selecionar quem uma empresa irá recrutar ou quem ganhará uma promoção. Não é difícil imaginar um futuro em que sistemas assim poderiam ser usados na Justiça para definir que pena dar a cada pessoa baseado no que for mais eficaz para cada indivíduo. Quanto mais longe vamos nas possibilidades abertas, mais conflitos são levantados perante os valores que uma democracia representa. A União Europeia já começou a desenhar um anteprojeto de regulação. Uma das decisões consolidadas é de que a nova lei irá proibir o uso generalizado de reconhecimento facial à distância. Será ilegal reconhecer pessoas na multidão com, por enquanto, uma única exceção aberta — para busca de crianças desaparecidas. Criar regras para algo tão novo exige buscar paralelos. Os europeus começaram, portanto, nos direitos já estabelecidos para consumidores. A partir daí, criaram uma classificação em quatro níveis de risco: inaceitável, alto risco, risco limitado ou mínimo. Os casos inaceitáveis são aqueles em que direitos individuais são abertamente violados. Reconhecimento facial ou biométrico na multidão é um, mas também sistemas que manipulem pessoas ou aqueles que dividam a sociedade em hierarquias de pessoas de maior ou menor valor. Estes usos serão proibidos. Os usos de alto risco são justamente aqueles para definição de crédito, de recrutamento profissional, identificação biométrica individual. Nestes casos, em que direitos individuais podem ser potencialmente ameaçados, será cobrada transparência — uma pessoa precisa receber a garantia de que não foi vítima, por exemplo, de algum viés preconceituoso do algoritmo. E este tipo de uso bate, diretamente, com o fato de que a maioria das aplicações são caixas pretas. Existem exceções, os sistemas chamados XAI, na sigla em inglês para inteligência artificial explicativa, mas são raros. A solução para as caixas pretas, então, deve passar por testagem frequente das aplicações com casos hipotéticos. É para ter certeza de que pessoas serão tratadas com justiça, de forma equivalente. Talvez um órgão regulador seja instado a dar um selo garantindo a qualidade dos sistemas. Qualquer aplicação de IA para classificar pessoas e determinar quem tem acesso a que tipo de serviço ou emprego, numa sociedade, oferece o perigo de reforçar as desigualdades já existentes. Afinal, treinadas com bases de dados que carregam o histórico do passado, podem terminar por consolidando um comportamento baseado em preconceitos já instalados. A nova Guerra Fria No ano de 2022, os chineses promoveram mais conferências, publicaram mais revistas científicas e artigos acadêmicos do que os americanos na área de inteligência artificial. Os EUA dominam em apenas uma frente — artigos técnicos de americanos continuam sendo mais citados. Ocorre que isso indica na verdade quem dominava a produção passada. Mas este não é o único parâmetro para definir quem está vencendo a corrida pelo domínio da tecnologia. Até 2014, universidades lideravam no mundo a produção de conhecimento no campo da IA. Desde então, o setor privado assumiu a dianteira. Os cientistas seguem publicando artigos quando trabalham para empresas ao invés da academia, mas não no mesmo ritmo. E, em 2022, os EUA investiram principalmente nestas companhias quase US$ 50 bilhões em IA. A China, que vem em segundo no investimento, pôs pouco mais de US$ 13 bilhões. Ou seja: é fora das universidades que os americanos estão botando suas fichas para dominar o setor da IA. E é um engano enxergar este processo como um de rivalidade e só. De 2010 para cá, projetos de colaboração entre americanos e chineses quadruplicaram. Pois é. Na conta da PWC, quase US$ 16 trilhões novos, injetados na economia global em 2030 pela inteligência artificial. A consultoria aposta que os EUA levarão US$ 4 trilhões deste pacote e, a China, US$ 7 trilhões. A América Latina é a região do mundo que menos se beneficiará. O impacto, por aqui, será de meio trilhão de dólares — o que fará diferença é a adoção num ritmo mais lento. Só confirma a maior a maior ameaça que a inteligência artificial impõe: a de reforçar desigualdades já existentes. |
Nenhum comentário:
Postar um comentário