Entenderam os humanos que haviam
de ter carros que os dispensassem da condução, para se dedicarem a outras
tarefas mais prazenteiras. Esses carros teriam de tomar decisões e, pensou-se, essas
decisões (poder)iam assentar em moralidade. Precisamente na moralidade humana.
Era, pois, coisa para envolver a Moral, que a própria humanidade desde que o é
não sabe o que é, nem consegue devidamente distinguir da Ética, da Religião, da Justiça,
do Direito.
Para se obviar a essa questão
cientistas resolveram fazer uma experiência, em curso desde 2014, cujos resultados
foram publicados na revista Nature e agora divulgados.
Para se aferir a moralidade da
humanidade ao volante, através da estatística, um método tão bom como qualquer
outro, foi colocado um pequeno questionário online. É sabido, sem serem
necessárias sequer estatísticas, que a humanidade adora questionários.
Então, incrivelmente, 40 milhões
de pessoas, de 213 países sentiram-se suficientemente seguras e certas para
responderem a perguntas sobre quem, em alternativa, matariam se fossem ao
volante. No conforto do seu telemóvel escolheram entre velhinhos e jovens,
homens e mulheres, ricos e pobres, pessoas e animais, muitos ou um só. Enfim, fizeram
a prova avançada dos testes psicotécnicos, em versão simplificada. Não parece
que se tenham incluído padres, doentes terminais, mulheres grávidas e outras
categorias problemáticas.
Ora, por alturas de 2014, em que
o volume de big data já era considerável, foi ultrapassada uma fronteira
arriscada. Os computadores, que neste âmbito passaram a denominar-se
Inteligência Artificial, começaram a aprender consigo
próprios (deep learning), à imagem do cérebro humano em redes neurais. Desde aí
até agora, desenvolveram-se extraordinariamente a Internet das Coisas, a DLT, as
redes sociais, os embriões de cyborgs, a capacidade de analisar a sempre crescente big data.
Não seria, pois, mais eficaz perguntar à Inteligência Artificial qual é a moralidade da humanidade ao
volante? Se o Senhor AI ainda não sabe, vai-se informar num instante.
Sem comentários:
Enviar um comentário