segunda-feira, 24 de junho de 2013

Ética e robótica

Há mais de meio século, Isaac Asimov em seu livro de ficção "Eu, Robô” percebeu a necessidade da criação de regras éticas para definir o comportamento dos robôs. Desde sua proposição, as Três Leis da Robótica se firmaram no senso comum como o principal exemplo de modelo de comportamento artificial. São elas:
. 1ª lei: Um robô não pode ferir um ser humano ou, por omissão, permitir que um ser humano sofra algum mal.
. 2ª lei: Um robô deve obedecer as ordens que lhe sejam dadas por seres humanos, exceto nos casos em que tais ordens contrariem a Primeira Lei.

. 3ª lei: Um robô deve proteger sua própria existência desde que tal proteção não entre em conflito com a Primeira ou a Segunda Lei.

Diversos autores de ficção, incluindo o próprio Asimov, exploraram ambiguidades nas Três Leis da Robótica criando situações indesejadas decorrentes de sua utilização. Asimov ainda imaginou uma quarta lei, chamada de Lei Zero, a qual deveria preceder as outras:
. Um robô não pode ferir a humanidade, ou por falta de ação, permitir que a humanidade sofra algum mal.
Muitas obras da ficção baseiam-se nas Leis da Robótica. Dentre elas, muitas obras de Asimov, como o “O Homem Bicentenário”, onde o robô Andrew é programado segundo as leis, e “Eu, Robô”, onde o supercomputador VIKI reinterpreta as leis decidindo subjugar os humanos para protegê-los de sua natureza auto-destrutiva.

No filme Aliens, de 1986, o andróide Bishop serve a tripulação de sua nave segundo a primeira lei de Asimov, ao contrário de Ash, androide do filme Alien, de 1979, que para cumprir sua missão, decide matar toda tripulação.

Em Robocop, de 1987, um ciborgue é construído a partir do corpo de um policial morto em serviço, e programado para seguir três leis similares às Leis de Asimov: servir à população, proteger inocentes e cumprir a lei. Porém, existe uma quarta diretiva secreta, que garante sua submissão aos seus chefes, mesmo implicando na quebra de alguma das outras leis. Contudo, no clímax do filme sua natureza humana consegue desobedecer esta lei (o que nunca ocorreria com robôs reais). Ainda no mesmo filme, é mostrado um resultado perigoso de autonomia em robôs, quando o protótipo de robô policial ED-209 entra em mau-funcionamento durante uma demonstração e acaba assassinando uma pessoa.
Apesar de as leis parecerem adequadas em um primeiro momento, existe uma série de problemas decorrentes da utilização de um conjunto pequeno de regras para guiar o comportamento de um indivíduo. Por exemplo, um robô teria a capacidade de perceber se uma pessoa está sendo ferida? Então ele poderia interromper uma cirurgia evitando que um médico realizasse uma incisão? Como ele poderia analisar o contexto de uma situação para decidir?
Quanto a sempre obedecer ordens dados por humanos, desde que nenhum mal seja causado, surge a dúvida se é adequado que um robô siga qualquer ordem que lhe seja dada por qualquer pessoa. Pode ocorrer de alguém ordenar uma tarefa sem propósito e isso acabar impedindo o robô de executar uma atividade possivelmente mais relevante. Outra questão é que em muitas ocasiões, medidas tomadas por humanos podem ser piores do que aquelas que robôs tomariam. No entanto, ao permitir a um robô a execução facultativa de ordens, abre-se um precedente para insubordinação total entre máquina e homem, como tratado em muitas obras.
Visto que criar um conjunto de regras para definir um comportamento ético é muito complexo, uma alternativa para a construção de robôs morais seria permitir a um robô aprender o comportamento ético, da mesma forma que crianças ao crescer aprendem quais comportamentos são morais. Alan Turing respalda essa idéia no artigo “Can Machines Think?” de 1950, onde é dita a seguinte frase:

“Ao invés de tentar produzir um programa para simular a mente adulta, por que não tentar produzir um que simule a mente de uma criança. Se ela for sujeita a um processo de ensino apropriado, então obteremos o cérebro adulto.”
Isto implica em introduzir conceitos de evolução e aprendizado de máquina no desenvolvimento do robô permitindo que o próprio tenha a capacidade de construir o seu comportamento.
Por outro lado, técnicas evolutivas nem sempre levam a formação de comportamentos éticos. Em 2009, em um experimento feito na Escola Politécnica de Lausanne, na Suíça, robôs programados para cooperar na busca de recursos relativamente escassos aprenderam a mentir uns para os outros com a finalidade de não dividir os recursos encontrados.   

fonte

Robóticaficção e ética - ufrgs


Universidade Federal Rio Grande do Sul

Sem comentários:

Enviar um comentário