Uma fórmula para identificar alunos de economia em bares lotados é ficando atento às palavras "dilema do prisioneiro". Elas são o "inconsciente" dos psicólogos em formação e o "estrutural" dos antropólogos. Ainda assim, há situações em que seu uso é útil. Uma delas é na caracterização das diretrizes para o desenvolvimento e uso da inteligência artificial. Tal como na história dos prisioneiros que poderiam se ajudar, o mundo sairia ganhando ao seguir princípios manjados, o que na prática não acontece.
A contenda levou ao surgimento de blocos antagônicos: um que prioriza a inovação sobre a regulação e que inclui EUA, China e Inglaterra; e outro que faz o oposto e que é liderado pela União Europeia, que paga caro pela ética e pela coragem, tal como o prisioneiro que coopera sozinho no jogo. Em muitos sites de escritórios de advocacia, lê-se que o nosso PL da IA replica o que está no texto do AI Act europeu. Tenho minhas dúvidas se esse pessoal refletiu o suficiente sobre a matéria.
A lei europeia difere da que passou pelo nosso Senado em dois aspectos fundamentais. O AI Act exige que os provedores de IAs listem as obras utilizadas pelos algoritmos, mas em lugar algum diz que é obrigatório remunerar todos os autores. Em contraste, o Art. 65 do nosso PL fala que "o agente de IA que utilizar conteúdos protegidos por direitos de autores (...) deve remunerar os titulares desses conteúdos". Usou, pagou, não importando a notoriedade da obra, ou sua relevância comercial: qualquer blog obscuro conta.
Do mais, a própria necessidade de listar as obras inexiste na Europa quando o software possui código livre. "Um aspecto essencial dos requisitos de transparência é a exceção para modelos open-source" (Gadamuz, A., 2024). DeepSeek, Qwen (Alibaba) e Llama (Meta) são open-source, que é o modelo de negócios em ascensão. As diferenças garantem-nos o posto de país mais caro do mundo para criar LLMs de mercado, o que, pelo jeito, jamais acontecerá. Seria recomendável aumentar a aderência aos atuais campeões em regulação.
Mais grave é o caso da indústria bélica, uma das poucas em que o Brasil é destaque (23º em exportações). A tendência ao redor do mundo são as armas autônomas, de drones de patrulha programados para disparar quando atacados aos robôs assassinos (LAWS) que materializam a distopia futurista no cinema.
O AI Act evita o tema, que não comporta provas de bravura. O consenso global é que deve ser tratado caso a caso (uso civil vs. militar; LAWS vs. drones, etc.), em consonância com os outros "prisioneiros", nos fóruns criados para tanto, como a ONU. Em contraste, o nosso PL é heroicamente taxativo: "são vedados o desenvolvimento, a implementação e o uso de sistemas de IA em sistemas de armas autônomas".
Isso significa que não será possível vigiar, com drones militares autônomos, as fronteiras com a Bolívia e a Venezuela, onde cartéis internacionais atuam. Tampouco será possível manter a competitividade de longo prazo de uma indústria que emprega 40.000 pessoas e que vende produtos como o A-29 Super Tucano (Embraer), usado pelos países-membros da OTAN bem longe daqui. Ainda dá tempo para não destruir indústrias e ceifar o poderio militar brasileiro, que ao contrário do que muitos pensam, é absolutamente estratégico para o país.
Nenhum comentário:
Postar um comentário