Há mais de meio
século, Isaac Asimov em seu livro de ficção "Eu, Robô”
percebeu a necessidade da criação de regras éticas para definir o
comportamento dos robôs. Desde sua proposição, as Três Leis da
Robótica se firmaram no senso comum como o principal exemplo de
modelo de comportamento artificial. São elas:
. 1ª lei: Um robô não
pode ferir um ser humano ou, por omissão, permitir que um ser humano
sofra algum mal.
. 2ª lei: Um robô
deve obedecer as ordens que lhe sejam dadas por seres humanos, exceto
nos casos em que tais ordens contrariem a Primeira Lei.
. 3ª lei: Um robô
deve proteger sua própria existência desde que tal proteção não
entre em conflito com a Primeira ou a Segunda Lei.
Diversos autores de
ficção, incluindo o próprio Asimov, exploraram ambiguidades nas
Três Leis da Robótica criando situações indesejadas decorrentes
de sua utilização. Asimov ainda imaginou uma quarta lei, chamada de
Lei Zero, a qual deveria preceder as outras:
. Um robô não pode
ferir a humanidade, ou por falta de ação, permitir que a humanidade
sofra algum mal.
Muitas obras da ficção
baseiam-se nas Leis da Robótica. Dentre elas, muitas obras de
Asimov, como o “O Homem Bicentenário”, onde o robô Andrew é
programado segundo as leis, e “Eu, Robô”, onde o supercomputador
VIKI reinterpreta as leis decidindo subjugar os humanos para
protegê-los de sua natureza auto-destrutiva.
No filme Aliens, de
1986, o andróide Bishop serve a tripulação de sua nave segundo a
primeira lei de Asimov, ao contrário de Ash, androide do filme
Alien, de 1979, que para cumprir sua missão, decide matar toda
tripulação.
Em Robocop, de 1987, um
ciborgue é construído a partir do corpo de um policial morto em
serviço, e programado para seguir três leis similares às Leis de
Asimov: servir à população, proteger inocentes e cumprir a lei.
Porém, existe uma quarta diretiva secreta, que garante sua submissão
aos seus chefes, mesmo implicando na quebra de alguma das outras
leis. Contudo, no clímax do filme sua natureza humana consegue
desobedecer esta lei (o que nunca ocorreria com robôs reais). Ainda
no mesmo filme, é mostrado um resultado perigoso de autonomia em
robôs, quando o protótipo de robô policial ED-209 entra em
mau-funcionamento durante uma demonstração e acaba assassinando uma
pessoa.
Apesar de as leis
parecerem adequadas em um primeiro momento, existe uma série de
problemas decorrentes da utilização de um conjunto pequeno de
regras para guiar o comportamento de um indivíduo. Por exemplo, um
robô teria a capacidade de perceber se uma pessoa está sendo
ferida? Então ele poderia interromper uma cirurgia evitando que um
médico realizasse uma incisão? Como ele poderia analisar o contexto
de uma situação para decidir?
Quanto a sempre
obedecer ordens dados por humanos, desde que nenhum mal seja causado,
surge a dúvida se é adequado que um robô siga qualquer ordem que
lhe seja dada por qualquer pessoa. Pode ocorrer de alguém ordenar
uma tarefa sem propósito e isso acabar impedindo o robô de executar
uma atividade possivelmente mais relevante. Outra questão é que em
muitas ocasiões, medidas tomadas por humanos podem ser piores do que
aquelas que robôs tomariam. No entanto, ao permitir a um robô a
execução facultativa de ordens, abre-se um precedente para
insubordinação total entre máquina e homem, como tratado em muitas
obras.
Visto que criar um
conjunto de regras para definir um comportamento ético é muito
complexo, uma alternativa para a construção de robôs morais seria
permitir a um robô aprender o comportamento ético, da mesma forma
que crianças ao crescer aprendem quais comportamentos são morais.
Alan Turing respalda essa idéia no artigo “Can Machines Think?”
de 1950, onde é dita a seguinte frase:
“Ao invés de tentar
produzir um programa para simular a mente adulta, por que não tentar
produzir um que simule a mente de uma criança. Se ela for sujeita a
um processo de ensino apropriado, então obteremos o cérebro
adulto.”
Isto implica em
introduzir conceitos de evolução e aprendizado de máquina no
desenvolvimento do robô permitindo que o próprio tenha a capacidade
de construir o seu comportamento.
Por outro lado,
técnicas evolutivas nem sempre levam a formação de comportamentos
éticos. Em 2009, em um experimento feito na Escola Politécnica de
Lausanne, na Suíça, robôs programados para cooperar na busca de
recursos relativamente escassos aprenderam a mentir uns para os
outros com a finalidade de não dividir os recursos encontrados.
fonte
Robótica, ficção e ética - ufrgs
Universidade Federal Rio Grande do Sul
Sem comentários:
Enviar um comentário