INÍCIO / Ativismo / Nossas leis da robótica precisam ser atualizadas

Nossas leis da robótica precisam ser atualizadas


Artigo original por Benjamin Kuipers

Tradução Carolina Castro


O escritor de ficção científica, Isaac Asimov, elaborou as Três Leis da Robótica a fim de controlar o comportamento das inteligências artificiais em suas histórias.

As leis são consideradas como os “Dez Mandamentos” da ética da IA, mas não um guia completo para a moralidade humana.

Com a integração dos robôs cada vez maior na sociedade, temos que ter a certeza de que vão se comportar bem. Em 1942, o escritor de ficção científica Isaac Asimov tentou elaborar um sistema filosófico e moral para assegurar que os robôs serviriam a humanidade e evitar que acabassem destruindo seus criadores. O esforço resultou no que conhecemos hoje como as  Três Leis da Robótica de Asimov:

  1. Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal;
  2. Um robô deve obedecer as ordens dadas por um ser humano, exceto quando entra em conflito com a Primeira Lei;
  3. Um robô deve proteger sua própria existência, contanto que não entre em conflito com a Primeira e Segunda Leis.

Hoje em dia, mais de 70 anos depois da primeira tentativa de Asimov, adquirimos muito mais experiência com robôs, inclusive temos veículos robóticos dirigindo por aí, pelo menos sob boas condições. Estamos nos aproximando da era em que os robôs do nosso dia a dia tomarão decisões sozinhos. Mas a pergunta é: as Três Leis de Asimov são boas o bastante para guiar o comportamento robótico na sociedade, ou precisamos encontrar alguma forma de melhorá-las?

 

ASIMOV SABIA QUE NÃO ERAM PERFEITAS

Isaav Asimov (1919 - 1992) Fonte: Google Imagens
Isaav Asimov (1919 – 1992) Fonte: Google Imagens

 

Os contos de Asimov em “Eu, Robô” exploram inúmeras consequências indesejadas e diversas falhas das Três Leis. Nas primeiras histórias, as Três Leis são tratadas como forças com intensidades diferentes, das quais podem haver comportamentos estranhos, como encontrados nos contos “Andando em Círculos” e “É Preciso Pegar o Coelho”, precisando, no fim, da inteligência humana para resolvê-los. Na narrativa “Mentiroso!”, um robô que lê mentes, motivado pela Primeira Lei, diz aos humanos tudo o que querem ouvir e acaba não percebendo o mal que causará quando a verdade vier à tona. A psicóloga roboticista, Susan Calvin, o força a entrar em conflito consigo mesmo, o que destrói seu cérebro positrônico.

Em “Evasão!”, Susan Calvin força a Primeira Lei para permitir que um robô super inteligente crie uma nave que viaje mais rápido que a luz, mesmo que isso cause a morte (temporariamente!) dos pilotos. Em “O Conflito Evitável”, as máquinas que controlam o mundo da economia interpretam a Primeira Lei como a proteção de toda a humanidade, não só de certos indivíduos. Esse acontecimento anuncia a introdução de Asimov da “Lei Zero”. Esta lei pode substituir as outras três, permitindo que um robô machuque um ser humano pelo bem de toda a humanidade.

Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal.

 

ROBÔS SEM ÉTICA

É compreensível ter medo de que, sem limites éticos, os robôs (ou outras inteligências artificiais) possam prejudicar até mesmo toda a raça humana, simplesmente por seguir as instruções dadas pelos próprios seres humanos.

O filme de 1991, “O Exterminador do Futuro 2: O Julgamento Final”, começa com um cenário de ficção científica bastante comum: um sistema de IA chamado Skynet inicia uma guerra nuclear e quase destrói a humanidade. Desativar a Skynet era uma decisão racional (ela tinha um “registro operacional perfeito”). A Skynet “começa a aprender a uma velocidade exponencial” e assusta seus criadores que tentam desativá-la. A IA revida (já que ela era programada para se defender). A Skynet então encontra uma solução para seu problema (uma solução criativa, livre do senso comum e da moral), o que foi inesperado .

Alguns acontecimentos desse tipo, só que menos apocalípticos e fora de controle, aconteceram na vida real. As trading systems (ferramentas que analisam e operam o mercado financeiro) reagiram de maneira incomum na bolsa de valores, gerando um feedback positivo que resultou num “flash crash” (queda repentina). Felizmente, só se perderam bilhões de dólares em vez de bilhões de vidas, mas para os computadores envolvidos isso não faz a menor diferença.

 

RUMO À DEFINIÇÃO DA ÉTICA ROBÓTICA

Embora nenhum conjunto de regras garanta um comportamento ético, podemos fazer algumas observações sobre as propriedades que um sistema ético e moral deve ter, para que haja harmonia entre agentes autônomos (pessoas, robôs ou coisas do gênero). Já são esperados dos seres humanos a maioria desses elementos.

As propriedades são inspiradas por algumas fontes, incluindo o Engineering and Physical Sciences Research Council (EPSRC) Principles of Robotics (em português: Princípios da Robótica do Conselho de Pesquisas em Engenharia e Ciências Físicas do Reino Unido) e um trabalho recente em ciência cognitiva da moralidade e da ética focado na neurociência, psicologia social, psicologia do desenvolvimento e filosofia.

O EPSRC tem a visão de que os robôs são só instrumentos pelos quais somos responsáveis. Por outro lado, há a preocupação que robôs superinteligentes e superpoderosos poderiam surgir e controlar o destino da humanidade, por bem ou por mal. A lista a seguir estabelece um meio termo, descrevendo que os robôs do futuro devem aprender a se comportar de acordo com os padrões da sociedade, assim como crianças aprendem desde cedo.

  • Se robôs (ou qualquer outra IA) participarem da sociedade, terão que seguir as regras morais e éticas, assim como as pessoas seguem. Algumas regras são representadas em forma de leis, como não matar, não roubar, não mentir e não dirigir na contramão. Outras, como ser prestativo e ajudar quando preciso, não são tão formais, mas não menos importantes.
  • Algumas situações exigem um julgamento moral e uma resposta rápida — por exemplo, uma criança correndo no meio da rua ou a chance de roubar uma carteira do chão. Regras simples proporcionam uma reação automática, em tempo real, quando não há tempo para pensar e analisar a situação. (Pode ser que um dia os robôs alcancem a inteligência humana e comecem a processar bem mais rápido que o pensamento humano, permitindo que tomem decisões em milissegundos, mas esse dia ainda não chegou e deve estar num futuro bem distante)
  • Nem sempre uma reação rápida é a correta, o que pode ser percebido pela consequência de uma situação ou mesmo por uma reflexão pessoal. Portanto, o indivíduo deve ser capaz de aprender com a experiência, com as consequências e com a deliberação, melhorando e criando novas regras.
  • Para se beneficiar das consequências de outros, o robô deve ser capaz de explicar e justificar suas decisões e entender explicações e críticas dadas por outras pessoas.
  • Tendo em mente que uma inteligência artificial aprende com seus erros, é preciso tomar cuidado com a quantidade de poder que damos a ela. Precisamos garantir que ela experimente diferentes situações e nos satisfaça com as reações, ganhando nossa confiança. O maior erro dos humanos em “O Exterminador do Futuro 2” foi entregar o controle do arsenal nuclear nas mãos da Skynet.
  • Confiança e confiabilidade devem ser conquistadas pelo robô. A confiança é conquistada aos poucos, através de muita experiência, mas pode ser facilmente perdida por uma decisão ruim.
  • Já com um humano, quando um robô decide agir de determinada maneira numa determinada situação, é enviado um sinal para o resto da sociedade sobre como aquele indivíduo toma decisões e o quanto é confiável.
  • A mente de um robô é um software que pode ser recuperado e restaurado se o original for danificado ou destruído, e ser passado para outro corpo. Se os robôs de um certo tipo forem exatamente iguais, então a confiança não precisa ser conquistada individualmente. A confiança conquistada (ou perdida) por um robô pode ser compartilhada com outros do mesmo tipo.
  • Se comportar bem e moralmente não é o mesmo que ter responsabilidade moral. Somente adultos competentes têm responsabilidade moral de suas ações, mas esperamos que crianças, animais, empresas e robôs se comportem da melhor maneira possível.

As crianças aprendem ética e moral com o passar do tempo, mas a natureza da moral e da ética variam de acordo com a sociedade e evolui ao longo de décadas e séculos. Nenhum conjunto de regras morais, sejam as Três Leis de Asimov, sejam os Dez Mandamentos, podem ser um guia adequado para humanos ou robôs no mundo complexo em que vivemos. Através de observações, como as citadas acima, estamos começando a entender o processo de aprendizado baseado em consequências que nos leva à moralidade.

Avalie esse artigo

0

Nota total

Agradecemos a sua avaliação!

User Rating: 4.83 ( 2 votes)

Sobre GEDbioética

O Grupo de Estudos e Discussões em Bioética – GEDbioética, foi fundado em 2012, por um grupo de alunos do curso de Ciências Biológicas da Universidade Estadual Paulista “Júlio de Mesquita Filho”, campus de São José do Rio Preto, com objetivo difundir e debater temas relacionados à bioética. Nossa missão é construir um ambiente permissivo à pluralidade de ideias. Além disso, criar um vínculo com a comunidade, a qual é essencial para a construção do conhecimento.

VEJA TAMBÉM

Kevin Spacey, protagonista de House of Cards, é demitido da série da Netflix.

Netflix, Santander e TV Globo: o boicote dos empresários

Netflix demitindo Kevin Spacey, protagonista da famosa série House of Cards; Banco Santander cancelando a …