sábado, 6 de abril de 2024

O odor putrefato de Lavender em Gaza, FSP

Faz duas semanas que esta coluna deplorou a tecnologia de drones a sanitizar a matança de palestinos pelo Estado de Israel. Torna-se imperioso voltar ao tema, agora, porque o mau cheiro que sopra da faixa Gaza é pior do que se pode suportar.

Antes de prosseguir, convém reafirmar o óbvio: o massacre perpetrado pelos terroristas do Hamas em 7 de outubro merece pleno repúdio. Não há insurgência ou luta anticolonial que possa justificar o assassinato raivoso de mais de um milhar de civis.

Se não vale para 1.200 inocentes, vale menos ainda para, no exercício de suposto direito de se defender, forças israelenses trucidarem em seis meses mais 32 mil habitantes de uma terra arrasada. Crianças e mulheres, na maioria.

Homem exibe passaportes britânicos, poloneses e australianos ao lado dos corpos de trabalhadores de ONG de chef famoso no Hospital Al-Aqsa, em Deir al-Balah, em Gaza - AFP

Alvejar hospitais, ambulâncias e comboios de ajuda humanitária são crimes de guerra. Mobilizar a fome como arma é uma forma de terror. Ponto.

Um ataque israelense matou sete integrantes da organização World Central Kitchen (WCK), do chef espanhol José Andrés. O presidente de Israel, Isaac Herzog, pediu desculpas, e o exército destituiu um coronel e um major, mas seria preciso muito mais para a potência militar se redimir –um cessar-fogo, para começar.

O escândalo que autoriza retomar o assunto escabroso neste espaço, em princípio reservado a temas de ciência, está em outra arma tecnológica indefensável dos combatentes vingativos: inteligência artificial. A ferramenta que dizem ser capaz de libertar a humanidade está em uso para livrar soldados de responsabilidade.

Bethan McKernan e Harry Davies noticiam no diário britânico The Guardian que forças israelenses empregaram uma base de dados baseada em inteligência artificial para selecionar 37 mil supostos integrantes do Hamas como alvos potenciais de bombardeios. O sistema se chama Lavender (sem comentários).

Os relatos foram obtidos originalmente pelo jornalista Yuval Abraham e cedidos ao Guardian para publicação em inglês. Em Israel foram veiculados na revista +972 e no boletim Local Call.

Não duvido que os funcionários da WCK tenham morrido por erro crasso do algoritmo, desses que humanos só cometem por maldade ou negligência. É certo que centenas, talvez milhares de palestinos não combatentes terão sido chacinados nesses deslizes maquinais.

Circuitos de computador não comportam tais falhas morais, nem podem ser culpados por elas. O emprego leviano da inteligência artificial na guerra, porém, seguramente foi decidido e autorizado por autoridades. Poderão elas ser julgadas por crimes de guerra, nessa inédita situação limítrofe?

"Isso não tem paralelo em minha memória", disse um oficial de inteligência que fez uso de Lavender. "Todo mundo ali perdeu alguém no 7 de outubro, inclusive eu. A máquina fez isso [matar] friamente. E isso tornou a coisa mais fácil."

Outro operador de Lavender contou que o sistema permite ganhar muito tempo. Ele dedicava coisa de 20 segundos para decidir sobre a eliminação de cada alvo, e fez isso dúzias de vezes a cada dia.

Dois dos informantes disseram que nas primeiras semanas da guerra havia permissão para matar 15 a 20 civis durante ataques aéreos a militantes de baixa patente. Os ataques eram realizados com bombas "burras", que derrubavam casas inteiras, matando todos dentro delas.

Inteligência artificial, bombas burras e soldados entorpecidos –uma combinação explosiva para os vestígios de humanidade que ainda havia no extermínio com índole genocida de crianças, mulheres e outros palestinos inocentes. 

Nenhum comentário: