As histórias que compartilhamos e que são frutos da imaginação coletiva nos ajudaram a prosperar como espécie. É o que tem defendido o historiador israelense Yuval Noah Harari, que se tornou um dos maiores best-sellers mundiais desde a publicação de "Sapiens - Uma Breve História da Humanidade" (Companhia das Letras).
O problema, diz ele, é que agora não dá mais para saber se a história que ouvimos não está saindo da boca de um robô. Se em filmes como "Matrix" as máquinas controlavam os humanos conectando seus cérebros a uma rede, a inteligência artificial pode usar a mesma arma de profetas e poetas: a linguagem.
"Filósofos como Platão alertaram que poderíamos ficar presos em ilusões humanas. Agora enfrentamos perigo maior: ficarmos presos nos sonhos de uma inteligência alienígena", diz o historiador em entrevista à Folha.
Harari vem ao Brasil para o lançamento, no dia 17 de agosto, do SP2B, festival de inovação, criatividade e desenvolvimento urbano que vai ocupar o parque Ibirapuera no ano que vem, com mais de 20 espaços.
O novo evento quer ser a versão brasileira do South by Southwest (SXSW), influente festival de inovação dos EUA, voltado para tecnologia, mídia e cultura. E foi desenvolvido quando o festival americano decidiu pausar sua expansão global, pondo fim a negociações em curso para trazer o SXSW ao Brasil.
Os organizadores do SP2B são os mesmos do Rio2C, evento da indústria criativa no Rio de Janeiro que tangencia temas semelhantes. Mas, segundo Rafael Lazarini, CEO da Da20, empresa responsável, enquanto o festival carioca é "80% voltado à indústria criativa e 20% à inovação e tecnologia", o parente paulistano aposta no caminho inverso.
O evento de lançamento terá a presença de Hugh Forest, que liderou por décadas o SXSW, e um show de Gilberto Gil em homenagem a São Paulo.
Harari, por sua vez, vai ser o responsável pela palestra de abertura. Nesta entrevista à Folha, ele discute os impactos da inteligência artificial para as narrativas humanas, debate os efeitos dela para a paz mundial e analisa a aliança entre bilionários da tecnologia e o governo Donald Trump.
Parece haver um discurso apocalíptico forte envolvendo a IA. Afinal, essa tecnologia pode nos destruir?
Algo estranho nessa indústria é que muitas pessoas que correm para construir uma IA avançada vivem alertando sobre seus perigos.
Quando converso com fundadores dos principais laboratórios de IA, eles contam uma história semelhante: adorariam reduzir o ritmo e investir mais em segurança, mas não confiam que os concorrentes nos EUA ou na China farão o mesmo. Por isso, dizem não ter opção a não ser acelerar ainda mais.
Na IA, é impossível prever todas as possíveis catástrofes. A inteligência artificial não é só uma ferramenta; é um agente. IAs podem tomar decisões, ter ideias totalmente novas e criar IAs superiores. Não sabemos como a IA evoluirá —e isso a torna tão perigosa.
Não entendo a lógica desses pesquisadores que correm para criar IAs mais poderosas. Quando dizem que não confiam nos concorrentes humanos, pergunto: "Vocês acham que poderão confiar numa IA superinteligente?". Eles respondem que sim! Isso parece insano.
Com humanos, ao menos temos experiência e conhecimento de psicologia. Nunca lidamos com IA superinteligente. Não há como prever o que acontecerá quando milhões de agentes superinteligentes começarem a interagir conosco —e entre si.
A IA tem imenso potencial positivo —e negativo. Pode nos salvar ou nos destruir. O desfecho depende de os seres humanos confiarem mais uns nos outros do que confiam na IA. Se a humanidade cooperar para desenvolver IA com segurança, será a melhor invenção da história. Mas, se for criada por uma corrida armamentista entre pessoas que se odeiam e temem, é provável que nos destrua.
Em filmes como Matrix, as IAs controlam humanos conectando fisicamente seus cérebros a uma rede. Mas não há motivo para as IAs recorrerem a isso.
O sr. já escreveu sobre o poder das narrativas em moldar sociedades humanas. A IA pode mudar nossa relação com essas histórias e nossas crenças coletivas?
Antes da IA, todas as histórias que moldavam as sociedades vinham da imaginação humana. Por mais estranha —fosse um mito religioso ou uma teoria conspiratória—, sabíamos que um humano a inventara. Hoje, pela primeira vez, perdemos essa certeza. Não só não sabemos se a história que ouvimos foi criada por uma IA como tampouco sabemos se quem a conta não é um robô.
Em filmes como "Matrix", as IAs controlam humanos conectando fisicamente seus cérebros a uma rede. Mas não há motivo para as IAs recorrerem a isso. Se quiserem manipular pessoas, basta a linguagem —a mesma arma que profetas e poetas usam há milênios.
A cultura é um casulo de histórias. Vivemos dentro dele. Tudo, dos hábitos sexuais às convicções religiosas, é moldado por narrativas. Por milênios, filósofos como Platão e Buda alertaram que poderíamos ficar presos em ilusões humanas. Agora enfrentamos perigo maior: ficarmos presos nos sonhos de uma inteligência alienígena —sonhos potencialmente mais persuasivos e enganosos do que qualquer história já criada por humanos.
Que efeitos a aliança entre lideranças do Vale do Silício e o governo Donald Trump vai trazer para o desenvolvimento dessa tecnologia?
Creio que muitos desses executivos se aproximaram de Trump porque viram uma chance de avançar suas agendas. No Departamento de Eficiência Governamental de Elon Musk, por exemplo, fica claro que o objetivo principal não era cortar gastos públicos, mas transferir poder de burocratas humanos para burocratas de IA.
A ideia era demitir humanos e substituí-los por IAs —algo muito lucrativo para quem desenvolve sistemas poderosos, como Musk. Mas isso não tornaria o governo mais transparente ou responsável; na verdade, o deixaria ainda mais obscuro.
Se a aliança entre Trump e parte do Vale do Silício se mantiver, veremos sistemas de IA se espalharem pelo governo, deslocando pessoas de posições de autoridade. E, como o governo Trump se opõe à regulação, a IA acabará tomando mais decisões em todos os setores da economia.
Alguns podem aplaudir a transferência de poder dos burocratas humanos para algoritmos. Burocratas têm má reputação. Mas é importante lembrar que nenhuma sociedade em grande escala funciona sem eles. E, se você acha ruim lidar com burocratas humanos, espere até encarar um algoritmo sem rosto decidindo se você consegue um emprego, um empréstimo —ou se vai para a prisão.
A IA se dissemina num momento em que a ordem mundial que garantiu a paz por décadas parece se desfazer. Que tipos de conflitos podemos esperar?
Infelizmente, a revolução da IA ocorre justamente quando a ordem liberal global colapsa. Isso dificulta criarmos regras comuns para o desenvolvimento da IA e aumenta o risco de ela acirrar conflitos violentos.
A ordem liberal global tinha falhas, mas tornou a humanidade mais próspera e segura do que nunca. Seu tabu mais importante era: países fortes não podem simplesmente invadir e conquistar países mais fracos pela força das armas. Com essa ordem sendo desmantelada, o tabu sumiu. Vemos isso na invasão russa da Ucrânia, cujo objetivo é pura e simplesmente conquistar o país —algo que não víamos desde 1945. Os EUA falam em anexar Groenlândia, Panamá e até o Canadá; a China quer Taiwan; Israel quer anexar Gaza; a Venezuela deseja a Guiana; a Etiópia mira partes da Eritreia. Quando se destrói a ordem, sobra o caos.
Isso aparece nos Orçamentos: os gastos militares disparam, tirando dinheiro de saúde e educação. Muitos Exércitos investem esses recursos em capacidades de IA.
Imagine uma guerra futura, digamos, entre Otan e Rússia. Um lado entrega à IA a autoridade de selecionar e matar alvos; o outro mantém humanos decidindo tudo. Quando o humano ordenar que seu drone atire, ele já terá sido abatido por um drone totalmente autônomo. A pressão para dar mais autoridade à IA será irresistível. Isso tornará navios, aviões e tanques atuais obsoletos.
Os políticos que destroem a ordem liberal global não parecem perceber essas consequências. Acham que ficarão mais poderosos. Talvez a curto prazo. A longo, só vão transferir poder de humanos para robôs.
Sim, precisamos de inteligência para alcançar metas, mas o que define a vida é a consciência; sentimentos são a base da ética. Devemos ter muito cuidado para não acabar com um universo cheio de inteligência e vazio de sentimento.
O que muda no cenário global a depender de quem vença a corrida pela IA, China ou Estados Unidos?
Há poucos bons desenlaces para uma corrida armamentista de IA. Como mencionei, isso dificulta a cooperação para garantir um desenvolvimento seguro e incentiva nações a investir nas formas mais perigosas de IA militarizada.
Na Guerra Fria, EUA e URSS eram contidos pela destruição mútua garantida: sabiam que, se atacassem com armas nucleares, também seriam destruídos. Hoje não existe freio semelhante. A imprevisibilidade da evolução da IA torna tudo ainda mais arriscado. O que acontecerá se a China achar que os EUA estão perto de desenvolver uma IA tão poderosa que poderia desativar seus mísseis nucleares? A teoria dos jogos diz que o momento mais perigoso numa corrida armamentista é quando um lado sente que sua vantagem está desaparecendo. Podemos estar chegando exatamente a esse ponto.
Quais habilidades ou valores devemos ensinar às crianças para prepará-las para um mundo dominado pela inteligência artificial?
As pessoas precisarão, acima de tudo, da capacidade de continuar aprendendo, mudando e se reinventando repetidamente. Cultivar essa capacidade exigirá uma reformulação completa dos nossos sistemas educacionais. Nas provas finais, os alunos não deveriam ser avaliados por repetir algo que memorizaram, mas sim por lidar com algo novo que nunca encontraram antes. Uma educação útil para a era da IA deve ajudar a pessoa a se sentir confortável diante do desconhecido. As pessoas que prosperarão nas próximas décadas serão aquelas capazes de enfrentar o caos e a incerteza sem perder o equilíbrio mental.
O desenvolvimento da superinteligência —a chamada IA geral— até o momento parece apenas uma abstração. Acredita que a humanidade chegará a essa tecnologia?
Há grande confusão entre inteligência e consciência. Inteligência é a capacidade de atingir objetivos e resolver problemas —por exemplo, vencer no xadrez. Consciência é a capacidade de sentir dor, prazer, amor e ódio. Nos animais orgânicos, inteligência depende da consciência: usamos sentimentos para resolver problemas. Nas IAs não orgânicas, é diferente: elas já superam humanos em algumas áreas —como xadrez—, mas sem consciência. Elas não sentem nada. Quando uma IA vence, não sente alegria; quando perde, não fica triste. Não há indícios de que computadores caminhem para desenvolver consciência.
Pode haver vários caminhos até a superinteligência, e só alguns exigem consciência. Assim como aviões voam mais rápido que pássaros sem desenvolver penas, computadores podem resolver problemas melhor do que humanos sem desenvolver sentimentos. Claro que, graças à alta inteligência, IAs poderão imitar emoções e nos convencer de que são conscientes. Vai ser cada vez mais difícil saber se uma IA é consciente.
Consciência é muito mais importante do que inteligência. Sim, precisamos de inteligência para alcançar metas, mas o que define a vida é a consciência; sentimentos são a base da ética. Uma ação má é algo que faz alguém sofrer; uma ação boa reduz o sofrimento. Devemos ter muito cuidado para não acabar com um universo cheio de inteligência e vazio de sentimento.
RAIO-X | Yuval Noah Harari, 48
Nascido em Israel, é professor na Universidade Hebraica em Jerusalém e pesquisador na Universidade de Cambridge. Formado em história militar e medieval na Universidade Hebraica, tem doutorado pela Universidade de Oxford. Autor dos best-sellers mundiais "Sapiens - Uma Breve História da Humanidade", "Homo Deus - Uma Breve História do Amanhã" e "21 Lições para o Século 21", traduzidos para 65 idiomas.
Nenhum comentário:
Postar um comentário