Moralidade para máquinas

A edição mais recente da revista britânica Philosophy Now (pô, sou chique pra burro, assino uma revista chamada Philosophy Now, e a editora Abril insiste em me mandar exemplares de cortesia de Caras; deve haver algum significado oculto nisso…) tem como tema a moralidade das máquinas — ou, faz sentido falar em ética e moral, culpa e punição, elogio e recompensa, para aparatos artificiais?
A questão é menos ficção científica do que parece, argumentam os editores da revista, porque cada vez mais máquinas vêm sendo chamadas a tomar decisões, e historicamente foi nesse ponto que a humanidade acostumou-se a traçar a linha da agência moral — isto é, a partir de que momento uma entidade qualquer passa a merecer reprovação ou elogio? a partir do momento em que é capaz de fazer escolhas.
E as máquinas, tanto em software quanto em hardware, estão escolhendo. Os algoritmos do Google e da Amazon, por exemplo, decidem quais resultados de busca lhe apresentar; a injeção eletrônica do automóvel decide de quanta gasolina o motor precisa; os chamados robôs de publicação usados por websites noticiosos decidem quais notícias vão ao ar.
Certo, atualmente muitas dessas decisões, ou a maior parte delas, estão sob controle nominal de um ser humano ou de uma equipe de humanos. A despeito do fato de essa supervisão ser realmente cada vez mais nominal, ainda há um humano por trás da máquina para ser culpado se algo der errado (geralmente, quando as coisas dão certo, ninguém é elogiado).
Mas isso não vai durar para sempre.
Instintivamente, já nos acostumamos a tratar as máquinas como se tivessem agência moral — quem nunca teve vontade de esmurrar o monitor do micro que atira a primeira pedra — mas o processo cultural de estímulo e repreensão não funciona com máquinas, porque embora decidam, elas ainda não entendem o que estão decidindo, e não adianta nada passar um sabão (metafórico) em algo que não entende o que está sendo dito, nem sente vergonha ou culpa.
Talvez aí esteja a raiz do problema: o ser humano é uma criatura onde essas diversas capacidades – de decidir, de entender, de orgulhar-se ou de envergonhar-se – aparecem mais ou menos ao mesmo tempo. Já nossas máquinas têm parte de nosso poder de decisão, mas nada dos outros.
Por enquanto essa desproporção é apenas curiosa, mas um dia, à medida que crescer o número e importância das decisões que confiamos a nossas máquinas, poderá vir a ser um problema.

Discussão - 5 comentários

  1. Igor Santos disse:

    Então a melhor punição para as máquina malvadas é o desligamento, já que elas não sentem vergonha nem podem ser disciplinadas.
    Talvez até nem sentíssemos culpa por dar tal destino tão cruel aos autômatos.

  2. Sabrina disse:

    Espero que a Microsoft nunca programe emoções nos sistemas operacionais.
    Fico imaginando o Windows 2015 trancando e depois se suicidando de vergonha. Ou ainda se vingando por eu usar linux na outra partição, ou se recusando de funcionar porque uso 'crack' em alguns programas.
    Imagina, máquinas moralistas! =D

  3. João Carlos disse:

    Apenas uma reflexão sombria... Essa transferência para máquinas (programadas por gente que nem sempre está qualificada para a tarefa) é um dos piores traços de uma sociedade covarde e impessoal.
    Os incompetentes que transferem sua autoridade para as máquinas, se esquecem que a responsabilidade pelas decisões é intransferível.

  4. cretinas disse:

    Desligar é sempre uma opção, claro, mas isso é meio como fechar a porteira depois do gado fugir... O interessante, a meu ver, descobrir se algum tipo de "sistema ético" ou de "aprendizado moral" não poderia impedir a máquina de tomar decisões erradas ou, ao menos, de limitar o escopo dos erros possíveis.
    O que leva à questão, não menos interessante, de se uma ma´quina capaz de desenvolver-se eticamente não passaria a também ter direitos...

  5. Gabriel-dom disse:

    De qualquer forma, a maquina ainda seria produto humano e qualquer que seja a ética ensinada seria uma ética baseada nos valores do programador humano. Uma máquina permanece sem tomar decisoes até que um humano lhe ensine que decisoes seriam tomadas por um humano se um humano se deparasse com as seguintes condiçoes. Ao meu ver, uma maquina teria algum direito ouresponsabilidade se lhe fosse programadoum sistema de decisoes aleatorias para situaçoes desconhecidas, decisoes que de acordo com o resultado obitido ganhassem peso em outra tomada de decisao para a mesma situaçao, a propria maquina avaliaria os resultados como positivos ou negativos. Os humanos apenas definiriam metas.

Envie seu comentário

Seu e-mail não será divulgado. (*) Campos obrigatórios.

Categorias

Sobre ScienceBlogs Brasil | Anuncie com ScienceBlogs Brasil | Política de Privacidade | Termos e Condições | Contato


ScienceBlogs por Seed Media Group. Group. ©2006-2011 Seed Media Group LLC. Todos direitos garantidos.


Páginas da Seed Media Group Seed Media Group | ScienceBlogs | SEEDMAGAZINE.COM