O que já era esperado finalmente aconteceu. Um carro autônomo da Uber atropelou e matou uma mulher no Arizona.
Há alguns paradoxos envolvendo esse tipo de veículo. É consenso entre especialistas que carros autônomos serão mais seguros que os conduzidos por motoristas, pela simples razão de que computadores, ao contrário de humanos, não se distraem nem usam drogas —dois fatores que explicam boa parte dos acidentes.
Ainda assim, dificuldades de regulação poderão atrasar ou até impedir a disseminação dos veículos autoguiados. Quem responde civil e penalmente em caso de acidentes como o do Arizona?
Hoje, com os carros ordinários, o responsável é quase sempre o motorista. Empresas como Google e Uber estarão dispostas a assumir esse risco? Ruas e estradas são um ambiente muito sensível a imponderáveis (crianças indômitas, motoristas malucos, animais soltos etc.), o que talvez baste para inviabilizar o negócio.
Outro problema fascinante nessa tecnologia está no fato de que, se ela for para a frente, os fabricantes terão de desenvolver um algoritmo ético para decidir o que fazer em certas situações de emergência.
Quando uma colisão é inevitável, mas o carro tem a opção de escolher para que lado desviar, o programa deverá privilegiar a segurança de quem? Do proprietário do carro? De um passante inocente que está na calçada? Poderá atingir em cheio o pedestre imprudente que atravessou no sinal fechado, dando causa ao acidente? Vale sacrificar duas pessoas para salvar uma criança? O risco de sequelas graves em quatro compensa a possível morte de um?
Você compraria um carro que não colocasse a sua segurança em primeiro lugar? Os desenvolvedores vão abrir para o público os princípios éticos que norteiam as decisões do algoritmo? O consumidor poderá escolher entre um carro consequencialista e um deontologista?
Nenhum comentário:
Postar um comentário