Ética para construção de máquinas sociais

por Pablo Batista, 2012 pdf

 

Reza a lenda, que da argila do rio Moldava em Praga, hoje capital da República Tcheca, um rabino criou o Golem. Ao recitar um encantamento especial e escrever em sua testa a palavra Emet, que na língua dos hebreus significa “verdade”, o Golem tornou-se um ser vivente. A pobre criatura fora criada apenas para obedecer ao seu criador, ajudando em tarefas mecânicas e protegendo o gueto onde habitavam os judeus. Mas não foi assim por muito tempo. O Golem cresceu e tornou-se violento, passou a matar pessoas e espalhar o medo no gueto. Para sua tristeza, o rabino descobriu que só havia uma maneira de parar a escalada de violência: destruir o Golem. Contrariado, o rabino apagou a primeira letra do nome que escreverá em sua testa, e formou a palavra Met, que em hebraico significa “morto”. Assim, o Golem deixou de existir.

 

Introdução

 

A criação e o desenvolvimento de sistemas inteligentes de computação nos permitem sonhar com o tempo em que criaremos o nosso Golem cibernético, ou seja, um serviçal que execute todas as duras tarefas que queremos abandonar. Mas, é provável que nossos sonhos nos levem à confecção não apenas de um tolo para serviços braçais e mecânicos, mas também à criação de um artefato com inteligência semelhante à nossa. De acordo com algumas especulações, isso ocorrerá em breve e será o estopim para a criação de uma super-inteligência, ou seja, uma entidade capaz de compreender sua própria estrutura, de reformular a si mesma alterando seu código fonte, criando sucessivos sistemas ainda mais inteligentes.

Alguns possíveis cenários apocalípticos foram explorados em filmes como O Exterminador do Futuro e Matrix, onde as máquinas se rebelam e dominam a Terra, exterminando ou escravizando a raça humana [fn]No longa-metragem Matrix, as máquinas não devoram os corpos dos humanos escravizados, mas o utilizam como geradores de energia. O que acontecerá se as máquinas se tornarem mais inteligentes que os seus criadores? Como máquinas com inteligência avançada lidarão com humanos aparentemente tolos, será que da mesma forma que lidamos com criaturas menos inteligentes? Esperamos que não, pois, se assim for, seremos utilizados como serviçais, proteção contra o clima, alimento para gerar energia ou para entretenimento. Quando essas máquinas forem capazes de se auto-replicar criando máquinas mais inteligentes que elas mesmas, não seremos nós humanos descartáveis ou até mesmo um fardo pesado demais para ser tolerado? Todos esses questionamentos são relevantes à medida que delegamos mais responsabilidades às máquinas inteligentes.[/fn]. Embora temamos que isso aconteça, e muitos críticos argumentem que por esse motivo sistemas artificiais altamente inteligentes não devam ser criados, dificilmente conseguiremos impedir seu advento. Obviamente a criação desses seres acarretará conseqüências inimagináveis na ordem social, econômica e política, mas é inevitável que aconteça. Por isso, seremos mais sábios se reconhecermos sua iminência, abrindo caminho para discussões que sirvam de bússola ao avaliarmos o impacto que essa forma de tecnologia terá sobre nossa sociedade.

Vivemos o momento da história em que podemos criar o alicerce para um desenvolvimento seguro da Inteligência Artificial (IA). No entanto, para termos sucesso precisamos de uma ética aplicável a esses novos seres que embora diferentes em constituição e origem, inevitavelmente farão parte de nossa sociedade. Precisamos criar diretrizes éticas que atuem como um farol guia para os criadores de IA, para que transformem as máquinas em seres sociais. Estando inseridas em nosso círculo social, teremos mais facilidade em nos relacionarmos com elas, e elas conosco.

Embora falar dessa forma pareça ser um antropomorfismo infantil, com a evolução crescente das máquinas, atribuir adjetivos humanos a elas não será apenas comum, mas necessário.

 

O Próximo Passo da Evolução

 

Desde os primeiros passos de nossa espécie na Terra, fomos peritos em confeccionar e utilizar ferramentas que nos ajudassem a dominar o ambiente hostil em que vivíamos. Assim como nós, com o passar do tempo essas ferramentas evoluíram, e de simples lanças de madeira e pedra, criamos complexos computadores, naves espaciais e aceleradores de partículas. Todas essas máquinas possuem em comum a marca da criatividade humana que as desenvolveu com o intuito de conseguir mais conforto, aliviar um trabalho árduo e dispendioso ou para executar milhares de cálculos por segundo nos poupando da estafante tarefa de pensar.

Até há pouco tempo, o relacionamento que tínhamos com nossas criações sempre foram orientados pela dominação na direção homem/máquina, ou seja, manejamos com perícia a máquina e ela faz exatamente o que queremos:

No entanto no final do século XX e início do século XXI nossas criações atingiram tamanho grau de complexidade que em muitos casos elas são capazes de tomar decisões por nós, ou até mesmo de impor sua “vontade”. Atualmente a seta aponta para uma via de mão dupla, onde homem e máquina interagem tentando impor suas “vontades” por canais de comunicação relevantemente limitados.

A evolução de sistemas artificiais e o aumento em sua complexidade não dão sinais de cansaço, por isso podemos esperar um desenvolvimento maior e mais acelerado nas próximas décadas. Os engenheiros tecnológicos sabem há muito tempo que a taxa de crescimento e evolução dos computadores é exponencial [fn]O crescimento exponencial ou geométrico é diferente do crescimento linear ou aritmético. No crescimento linear o avanço segue na seqüência numérica de 1, 2, 3, 4 e assim por diante, enquanto que no crescimento exponencial o aumento segue na taxa de 1, 2, 4, 8, 16, 32 e assim progressivamente. Esse crescimento exponencial da tecnologia está fundamentado no princípio da Lei de Moore, baseada nas idéias do co-fundador da Intel Gordon E. Moore. Moore, observou que a área da superfície de um transistor era reduzida em aproximadamente 30% a cada 12 meses. Em 1975 foi divulgado que após uma revisão de sua teoria inicial sobre a taxa de crescimento da capacidade dos circuitos integrados, Moore modificou sua observação para 18 meses, embora ele afirme que sua revisão tenha sido para 24 meses. O resultado disso é que a cada dois anos é possível colocar duas vezes mais transistores num circuito integrado. Ao duplicar o número de componentes em um chip as distâncias que os elétrons devem percorrer diminuem, aumentando exponencialmente sua velocidade. Mas, por quanto tempo esse crescimento pode continuar? Segundo Ray Kurzweil a Lei de Moore apareceu por volta de 1958 e cumprirá seus 60 anos de serviços úteis por volta de 1918 quando outra tecnologia computacional continuará o crescimento do ponto onde a Lei de Moore parar. (Para maiores detalhes ver o capítulo 1 do livro A Era das Máquinas Espirituais, de Ray Kurzweil, Aleph SP 2007).[/fn]. Mas, o que muitos ainda não perceberam é que a evolução de formas de vida artificial será com certeza o próximo passo evolutivo no desenvolvimento e aprimoramento de sistemas biológicos [fn]Segundo o futurólogo Ray Kurzweil, em qualquer planeta onde o improvável momento inicial da vida tenha ocorrido e criado raízes, a evolução pela seleção natural criará formas de vida altamente inteligentes capaz de produzir tecnologia. Por isso, podemos dizer que o avanço da tecnologia é um processo inerentemente evolucionário, uma conseqüência inexorável e continuada do mesmo processo que originou as primeiras formas de vida e posteriormente possibilitou a ascensão de nossa espécie.[/fn]. Talvez seja questão de tempo para que as máquinas conquistem todo o nosso ambiente e se tornem mais inteligentes que a espécie humana. A ocorrência futura desse evento foi denominada de Singularidade, nome providencial em conformidade com as concepções sobre buracos negros onde a singularidade é um ponto no espaço-tempo em que sua curvatura torna-se infinita [fn]O conceito de Singularidade Tecnológica foi cunhado pelo matemático e escritor de ficção científica Vernor Vinge. Segundo ele, entre 2005 e 2030 criaremos um supercomputador muito mais inteligente do que nós, com consciência e capacidade de criar outras máquinas ainda mais inteligentes e criativas. (No meu cone de complexidade, a Singularidade correrá entre 2045 e 2050).[/fn]. Ao atingir essa suposta curvatura infinita, as máquinas alcançarão um nível de inteligência mais elevado do que a de seus criadores.

Ainda não sabemos o que acontecerá ao cruzarmos o horizonte de eventos no topo do cone de avanço da complexidade em sistemas artificiais, mas, quando isso ocorrer, é provável que a direção da seta de dominação tome uma direção pouco agradável para os humanos:

Não podemos dizer que máquinas atuais como microondas e torradeiras estejam em tamanho nível de complexidade, pois são sistemas extremamente simples, que se manejados de forma correta não proporcionam qualquer tipo de risco a nossa existência. Estamos tratando aqui de máquinas que serão capazes de aprender com seus erros e de alterar seu código fonte para construir máquinas ainda mais especializadas. Esses novos sistemas de IA poderão ser entidades conscientes e demonstrarão inteligência generalizada. Para representar sua natureza fundamentalmente distinta das máquinas com as quais convivemos, foi cunhado o termo Inteligência Artificial Generalizada (IAG).

 

Inteligência Generalizada

 

Um dos principais fatores que sustentam o abismo aparente entre homens e máquinas é a superior capacidade de aprender dos humanos. É natural à nossa espécie aprender com a observação, coisa que as máquinas ainda não podem fazer. Ao observar um castor construir um dique num rio, nós podemos aprender a fazer o mesmo apenas observando, e isso, as máquinas ainda não são capazes de fazer. Essa capacidade exclusivamente humana foi moldada em nossos cérebros após milênios de evolução para que fossemos capazes de responder a imprevistos como, por exemplo, pôr-se em fuga ao menor sinal de um predador inesperado saindo de trás de um arbusto.

Com exceção aos algoritmos genéticos, a maioria das máquinas criadas atualmente deve toda a sua inteligência aos engenheiros que alimentam seu banco de dados, e por isso, elas apenas realizam tarefas pré-programadas por seus criadores no momento de sua confecção. É o que podemos chamar de inteligência local. Por exemplo, o Deep Blue é perito em jogar xadrez, mas é incapaz de aprender por si só como participar de uma rodada de poker. Isso ocorre porque os sistemas de IA carecem do que chamamos de generalidade, ou seja, uma inteligência mais geral que abarque alguns princípios elementares permitindo ao agente navegar por vários domínios.

A generalidade é de fundamental importância no contexto social, pois quando uma criatura ou artefato opera apenas dentro de um domínio específico, ela pode ocasionar sérios ricos a sua própria existência e também à existência dos diretamente envolvidos em suas ações. Em outras palavras, máquinas limitadas em inteligência e socialização colocam em perigo a segurança de seus criadores [fn]O designer de tecnologia Donald A Normam cita um fato ocorrido com Jim, um amigo seu que dirigia um carro com controle de cruzeiro adaptativo. Esse tipo de controle mantém o carro em velocidade constante, a não ser que tenha um objeto ou veículo a frente. Se houver um obstáculo em seu trajeto ele desacelera para manter uma distância segura. Segundo Jim, ao guiar por uma rodovia o trânsito de carros se intensificou e o seu veículo automaticamente diminuiu a velocidade. Após chegar a sua saída, Jim desviou para a pista da direita e fez a volta para sair da estrada. Esquecendo o controle de cruzeiro ligado, o carro “entendeu” que não havendo ninguém à frente poderia aumentar a velocidade, mas essa era uma estrada secundária que requer uma velocidade baixa. Felizmente Jim estava atento e pisou nos freios a tempo.[/fn].

Ainda temos esses problemas com as máquinas porque os engenheiros projetam as tecnologias sem se preocupar com a interação direta que elas terão com os humanos, e porque os fatores que entram no campo de decisão de uma pessoa são extremamente amplos e condicionados por diversos elementos, dentre eles o contexto onde a ação está inserida. Quando um evento imprevisto acontece a uma pessoa surgem soluções criativas e imaginativas em decorrência do tipo de inteligência que os humanos apresentam. Para as máquinas, imprevistos tornam-se um pesadelo, pois como sua inteligência está alimentada com informações da mente de um programador, sua reação é extremamente limitada e por vezes absurda.

Encontrar a sintonia fina para um relacionamento pacífico entre homem e máquina, não é uma tarefa fácil, pois as motivações de pessoas e os impulsos das máquinas são extremamente diferentes. As ações no nível pessoal são motivadas por diversas razões, desde o histórico das pessoas e o contexto onde ocorre a ação, até as projeções que o agente faz para o futuro. Por isso, não podendo evitar surpresas em nossa interação com o ambiente, pois como é de conhecimento comum “o imprevisto sobrevêm a todos”, os engenheiros devem trabalhar para minimizar as conseqüências de ocorrências imprevistas. Se não é possível evitá-las, talvez seja possível criar máquinas com respostas adequadas a cada situação, ou máquinas com sistemas de aprendizagem adaptável.

 

Máquinas Sociais

 

O cone da complexidade indica perigosamente que a seta de domínio poderá se virar contra nós. Por isso, à medida que esses artefatos robóticos se tornam mais inteligentes e responsáveis por controlar uma ampla gama de situações de nossas vidas colocando inevitavelmente em risco a nossa própria segurança e a de nossos descendentes, faremos bem em tomarmos as rédeas da situação por nos empenharmos na construção de máquinas capazes de interagir socialmente [fn]O crescimento exponencial da capacidade de computação dos computadores deixa claro que em breve as máquinas nos superarão em força, inteligência e velocidade. Mas de qualquer maneira, mesmo máquinas extremamente complexas ainda possuirão limitações significativas em termos de comunicação social, empatia, e capacidade de pensamento social do tipo que estamos acostumados em humanos. Pois, mesmo quando sistemas complexos de IA forem dotados de softwares de reconhecimento do ambiente, tão avançados que lhes permitam a construção de um modelo interno do mundo externo, sua percepção ainda será distinta da nossa. Isso ocorrerá porque mesmo as máquinas mais complexas não possuirão (a menos que escrevamos um programa para isso) o que consideramos metas elevadas. Esses chamados “objetivos maiores” são os responsáveis por impulsionar as pessoas à vida. Elementos básicos como a manutenção da vida, a afeição aos descendentes e a empatia pelos semelhantes, são os fundamentos de nossa sociedade e da intrincada teia ética por onde nos movemos. Por isso, é de fundamental importância que ao assumir de forma crescente o controle da maioria dos aspectos de nossas vidas, as máquinas sejam equipadas com esses elementos básicos que dão sentido à nossa existência, para que se tornem modernas máquinas sociais.[/fn].

A inserção de máquinas em nossa rede social ocorrerá com maior facilidade se elas atenderem aos critérios que exigimos de outros seres para aceitá-los em nosso círculo de convivência. Ao aceitar um indivíduo em nossa sociedade, esperamos que ele atenda alguns requisitos básicos, mas essenciais para promoção da paz em um grupo fechado, como a responsabilidade por seus atos, transparência, incorruptibilidade e previsibilidade. Essa exigência é necessária, pois quando os métodos dos agentes ou de um sistema permanecem ocultos, geram desconfiança e temores infundados, assim como normalmente desconfiamos das decisões não colaborativas dos CEO de grandes empresas.

Os sistemas de IA podem preencher os papeis sociais que exigimos em nossa esfera ética, mas isso implica em novos projetos orientados pela transparência e previsibilidade. Os engenheiros de programação talvez possam trabalhar no desenvolvimento de um correlato artificial para empatia que permitirá as máquinas ler formas de comportamento humano que não são expressos pela fala. As máquinas que replicarem a empatia serão capazes de avaliar o impacto de suas decisões sobre as pessoas.

Os maiores progressos em computação e tecnologia ocorreram nas áreas que consideramos o máximo da realização humana, como a velocidade de processamento de informações e o pensamento lógico, enquanto as áreas em que as ações são consideradas demasiadamente fáceis como ficar em pé, caminhar, pular, pegar um copo sem quebrá-lo, foram negligenciadas juntamente com a área de interação fundamental para os seres humanos: a esfera ética.

Para atender requisitos tão sutis, mas fundamentais para a vida harmônica em sociedade, são necessários preceitos éticos que regulamentam a criação de máquinas inteligentes, e que também sirvam de guia para as ações das pessoas em suas interações com sistemas complexos de IA que instanciem uma cognição generalizada.

 

Ética para Máquinas

 

O que serve de norte no discurso ético são as considerações sobre o estatuto moral. A definição de quem possui status moral é de fundamental importância para regulamentar à forma como tratamos, ou deveríamos tratar, outros seres em menor ou mesmo nível de racionalidade. A noção de status moral é relevante nas discussões atuais no campo da ética aplicada para tratar de problemas relacionados à pesquisa com embriões, tratamento destinado a crianças, idosos e animais, e tratamento dispensado a pessoas portadoras de algum tipo de deficiência mental [fn]Todo bom filósofo sabe que promover o discurso ético não é uma das tarefas mais simples que a humanidade já ousou realizar. Aristóteles, que viveu de 384 AC a 322 AC, escreveu Ética a Nicômaco, o primeiro tratado ético/filosófico do ocidente, deixando evidente que há mais de 2000 anos tentamos definir – aparentemente sem muito sucesso – diretrizes éticas que nos oriente a seguir uma vida correta, maximizando felicidade e minimizando sofrimento. Se durante todo esse tempo ainda não chegamos a um consenso sobre o que seria uma ação ética, como podemos esperar criar máquinas sociais que surgirão nas próximas décadas, com comportamento ético? Estaremos realmente prontos para enfrentar esse problema? É provável que a resolução desse problema esteja além de nossa capacidade cognitiva atual, mas, ainda assim precisamos tentar, pois a sobrevivência de nossa espécie talvez dependa disso.[/fn]. Na construção de um edifício ético orientado para a maneira como tratamos outros seres possuidores de status moral, emerge naturalmente um princípio que servirá como sustentáculo para a ética: o princípio de igualdade.

Nos últimos séculos mudanças drásticas em nossas atitudes morais se tornaram visíveis, desde a condenação da escravidão e concessão do direito ao voto e maior participação econômica para as mulheres, até as recentes manifestações favoráveis ao fim do preconceito contra homossexuais. Embora algumas dessas questões ainda permaneçam polêmicas, o princípio de que todos os seres humanos são iguais faz parte da ética predominante, fundamentada principalmente na Declaração Universal dos Direitos Humanos, que foi adotada e proclamada pela Assembléia Geral das Nações Unidas em 10 de dezembro de 1948:

Todas as pessoas nascem livres e iguais em dignidade e direitos. São dotadas de razão e consciência e devem agir em relação às outras com espírito de fraternidade. (Artigo I)

Evidentemente, aceitar essa declaração não é tão fácil quanto parece, pois além das diversas maneiras possíveis de indivíduos divergirem em características como gênero, idioma, raça, altura e capacidades intelectuais, não podemos afirmar que todos os seres sejam dotados igualmente de razão e consciência.

No livro A Theory of Justice, John Rawls sugere que a igualdade seja fundamentada em características naturais comuns a todos os seres humanos. Segundo ele, existe uma “propriedade de âmbito”, que pode ser ilustrada por um círculo onde os pontos em seu interior são os elementos ou sujeitos que possuem as propriedades necessárias para estarem inseridos nele. Essa propriedade de âmbito é a “personalidade moral”, uma característica que, segundo Rawls, todos os seres humanos possuem igualmente, pois todos os homens possuem um senso de justiça, ou seja, são entidades capazes de encontrar sentido em uma invocação moral. Portanto, para Rawls, a personalidade moral que é uma propriedade comum a todos os seres humanos, é à base da igualdade entre os homens.

Mas, a abordagem de Rawls não está isenta de problemas. Uma das dificuldades mais relevantes é que ao contrário do que Rawls pensa, não é tão evidente que todos os seres humanos sejam pessoas morais e por isso possuam algum senso de justiça. Por exemplo, bebês, crianças e pessoas com graves problemas mentais aparentemente carecem do necessário senso de justiça, mas dificilmente defenderíamos a noção de que todos os seres humanos são iguais, com exceção dos muitos jovens e dos mentalmente incapacitados [fn]A História tem nos ensinado que excluirmos seres de nossa esfera ética com base em nossa aparente e enganosa superioridade é um erro. Esse tipo de chauvinismo foi o estopim para aceitarmos como natural transportar pessoas em navios negreiros, ou tirar a vida de seis milhões de judeus em campos de concentração na Segunda Guerra Mundial.[/fn]. Portanto, podemos afirmar – contrariando o argumento de Rawls – que a posse de uma personalidade moral não é uma base satisfatória para um princípio de igualdade, e que, além disso, é pouco provável que exista uma propriedade moralmente relevante distribuída de forma igualitária entre todos os seres humanos.

No entanto, ainda é possível identificar um princípio básico de igualdade que não careça de alguma característica improvável, e possa ser estendido a todos os humanos. O filósofo Peter Singer nos deu uma pista: “Ao fazer um juízo ético, devo ir além de um ponto de vista pessoal ou grupal, e levar em consideração os interesses de todos os que forem por eles afetados. Isso significa que refletimos sobre os interesses, considerados simplesmente como interesses, e não como os meus interesses, ou como interesses dos australianos ou de pessoas de descendência européia. Isso nos proporciona um princípio básico de igualdade: o princípio de igual consideração de interesses” [fn](SINGER, 2002. p.30).[/fn].

Segundo Singer, a essência desse princípio de igualdade é que “um interesse é um interesse, não importa de quem seja esse interessa”. O princípio de igual consideração de interesse nos leva a fazer deliberações morais atribuindo o mesmo peso aos interesses de todos os que são atingidos por nossos atos. Dessa forma, é possível expandir o círculo para abarcar todos os humanos, e até mesmo todos os animais, que com certeza possuem pelo menos o interesse básico semelhante ao nosso de evitar o sofrimento [fn]E o que dizer então dos animais, devem ser excluídos de nossa propriedade de âmbito? Recentemente tem havido uma crescente conscientização de que até mesmo os animais devem estar inseridos em nossa esfera ética. Muitos pensadores estão engajados em movimentos que lutam pelos direito dos animais, com a premissa de que não há nenhuma característica humana relevante que nos faça melhor – e por isso merecedores de privilégios adicionais – do que os demais animais. Embora com menor nível de racionalidade – com exceção dos grandes símios, baleias e golfinhos – todos os seres estão propensos ao sofrimento, e por isso seu interesse básico em não sofrer deve ser levado em consideração.[/fn]. A utilização desse princípio culminará na expansão de nossa esfera ética, conduzindo todas as estruturas biológicas como animais, futuros clones e talvez, por que não dizer, novas formas de vidas alienígenas descobertas pela exploração espacial, para o interior da esfera.

É evidente que a principal razão que nos motiva a incluir seres em nossa esfera ética, é que os organismos sejam capazes de instanciar a dor e sejam passiveis de sofrimento. O nosso conceito de dor está inseparavelmente ligado as nossas principais intuições éticas e desempenha papel fundamental na definição de nossa comunidade moral.

Mas, o que dizer então de estruturas não-biológicas como os futuros sistemas cognitivos artificiais incapazes de instanciar o que conceituamos como dor, é possível expandir ainda mais a área da esfera ética para incluí-las em nossa rede social? Convém verificarmos se há razões para incluirmos máquinas inteligentes entre os indivíduos de nosso círculo social que são detentores do que chamamos de status moral [fn]Evidentemente alguns objetos inanimados como, por exemplo, uma pedra não possui estatuto moral, por isso, podemos pulverizá-la sem que isso nos cause transtornos de consciência. Da mesma forma as máquinas produzidas atualmente podem ser descartadas sem que isso se torne um problema ético. O mesmo não ocorre com o tratamento dispensado às pessoas e animais, pois por possuírem o que definimos acima como estatuto moral, não podem ser tratadas da mesma forma como tratamos pedras ou máquinas rudimentares. Essa concepção está em conformidade com uma das noções básicas de toda ética, a noção de que as pessoas não devem ser tratadas apenas como um meio para se alcançar um objetivo maior, mas, devem ser encaradas como um fim em si mesmas. Conforme vimos, os interesses legítimos de todo e qualquer indivíduo devem ser levados em conta, sendo esse o único princípio de igualdade realmente relevante.[/fn].

 

Expandindo o Círculo

 

A criação de um estado de direito visa zelar pelo bem estar de todos os alcançados pelo raio da esfera ética, por isso temos justificativas para proibir assassinatos, roubos, e outras formas de provocar sofrimento em nossos semelhantes. Ao deliberamos sobre quem deve ser etiquetado com a tutela de status moral – sendo por isso carente de tratamento ético – levamos em consideração a posse de pelo menos uma de duas características:

Senciência: disposição para a experiência fenomênica, ou ao que os filósofos da mente chamam de qualias, como por exemplo, a vermelhidão do vermelho ou a sensação de dor.

Sapiência: conjunto de características associadas com maior inteligência, autoconsciência, e a capacidade para o pensamento racional.

O insight decorrente dessa percepção da ética, é que no futuro, quando máquinas portarem algum tipo de experiência fenomênica da realidade, ou seja, se instanciarem algum tipo de propriedade qualitativa, deverá adentrar a área de nossa esfera ética. Um sistema altamente complexo com percepções fenomênicas, mesmo que não possua faculdades cognitivas superiores como autoconsciência, não poderá ser considerado apenas um simples boneco descartável, mas deverá ser encarado, e por isso também tratado da mesma maneira como tratamos um animal vivo [fn]Em nossas deliberações éticas beneficiamos alguns animais com status moral, pois possuem disposição à experiência fenomênica, ou seja, são capazes de instanciar algumas propriedades qualitativas, além de serem sensíveis a dor e ao sofrimento. Mas, apesar disso, somente os humanos possuem o que chamamos de sabedoria ou sapiência, e isso evidentemente lhes confere maior status moral em comparação com os demais seres na natureza. Consideramos uma atitude eticamente reprovável causar dor e sofrimento a um cachorro, a menos que as razões para fazê-lo sejam suficientemente fortes como, por exemplo, salvar uma criança do ataque de um Pitt Bull. O mesmo valor ético será aplicável ao lidarmos com sistemas sensíveis de IAG.[/fn].

Mas, pode um robô feito de silício sentir dor? Não tenho dúvida de que os engenheiros de hardware possam construir máquinas sensíveis com correlatos para o que os humanos chamam de dor. No entanto, céticos da IAG sempre argumentaram que o que o robô alega estar sentindo não é uma dor genuína, mas uma simples descrição de um estado doloroso. Então talvez devamos concordar com o filósofo da mente Daniel Dennett: “Uma razão, então, pela qual não podemos fazer um computador sentir dor é que nosso conceito de dor não é psicológico, mas também ético, social e paroquial, de forma que o que quer que coloquemos dentro de nosso computador ou robô, não adiantará, a menos que leve consigo essas outras considerações, uma questão sobre a qual nosso controle, como projetistas de computadores, é mais que limitada” [fn](DENNETT, 1999. p.270).[/fn]. No entanto, mesmo que nosso chauvinismo biológico não permita a admissão de que artefatos complexos de IAG mereçam a condição de seres sociais, pois não possuem propriedades de senciência, devemos admitir que essas novas formas de inteligência possuem status moral pois demonstram ao menos sapiência.

A utilização de preceitos éticos em nossa convivência com máquinas inteligentes evitará que cometamos formas de discriminação que surgem com naturalidade em casos não regulamentados. Em sua maioria, essas formas de preconceitos estão relacionadas com o fato de que muitos críticos poderão argumentar que sistemas de IA não possuem o mesmo status moral que os humanos, pois possuem substrato e ontogenia distinta da nossa, ou seja, são constituídos principalmente de material não-biológico e, além disso, possuem origem diferenciada da origem orgânica.

Mas, uma sociedade informatizada e cosmopolita como a nossa, deverá sustentar fortes princípios de não-discriminação do substrato e de não-discriminação da ontogenia. Os dois princípios possuem o pressuposto básico de que, possuindo duas criaturas a mesma funcionalidade e semelhantes formas de experiência consciente, sendo distintas apenas em sua constituição física ou em sua origem, as duas criaturas possuirão o mesmo status moral. A rejeição desses princípios básicos fará com que adotemos uma postura racista ou carbono-chauvinista, abandonando o princípio fundamental da igualdade, segundo o qual todos os interesses legítimos devem ser levados em consideração sem que tenha importância o substrato ou a ontogenia [fn]Há ainda alguns críticos das novas formas de tecnologias e técnicas de aprimoramento genético como o alemão Jürgen Habermas, temerosos de que a criação de seres a partir de um princípio intencional, ou seja, quando o criador interfere diretamente na constituição de sua criatura, seja o estopim para a criação de seres irresponsáveis. Evidentemente quando criadores têm controle sobre o tipo de criatura que desejam que venha a existência eles são responsáveis pelas ações desses seres, assim como os pais em certa medida também são responsáveis pelas atitudes de seus filhos. Mas, a responsabilidade procriadora não diminui em grau a responsabilidade da cria, pois, se a criatura é um agente com competência moral aceito como tal em nossa esfera ética, ele tem total responsabilidade sobre sua ação.[/fn].

O substrato carece de significação moral da mesma maneira que a cor da pele e a linhagem são irrelevantes para os interesses que devem ser levados em consideração. Em outras palavras, podemos afirmar que não faz diferença se um agente moral é feito de silício ou de carbono, ou se seu cérebro usa semi-condutores ou neurotransmissores para transportar informações, se o indivíduo com mesma funcionalidade e consciência for aceito em nossa esfera ética, seus interesses deverão ser levados em consideração pois seu status moral é equivalente ao de um humano normal.

A ontogenia é irrelevante para nossas considerações éticas, pois o fato de alguém existir como resultado de um projeto intencional não reduz ou altera significativamente seu estatuto moral. No passado – e ainda no presente em lugares como a Índia – a idéia de que o status moral dependia de uma linhagem ou castas era normal. Mas, para a construção de uma nova sociedade livre de preconceitos, não podemos defender que fatores intencionais como planejamento familiar, assistência ao parto, fertilização in vitro, seleção de gametas, clonagem e a criação intencional de sistemas de IA, que introduzem elementos de escolhas deliberados no designe e na criação de agentes inteligentes, tenham implicações relevantes para o status moral dessas criaturas [fn]Há algumas décadas a fertilização in vitro era vista como uma aberração ou uma afronta contra a criação divina, hoje, muitos casais devem a essa técnica a oportunidade de ter filhos. Em breve seremos capazes de clonar pessoas, e mesmo para quem se opõe a clonagem por motivos morais ou religiosos, quando isso vier a ocorrer, terão que reconhecer o status moral de um indivíduo que veio a existência através da técnica de clonagem.[/fn].

 

Conclusão

 

Aceitando nossas responsabilidades criativas faremos bem em criar princípios que evitem aumentar o sofrimento do mundo, como por exemplo, descartar ou destruir máquinas com algum tipo de senciência e formas de sapiência que lhes permitirão perceber que sua existência está terminando. Uma breve consideração dessas novas formas de exclusão nos leva facilmente a percepção de que uma sociedade informatizada e democrática como a que estamos ajudando a construir eliminará com facilidade toda forma de discriminação.

Propomos que os mesmos princípios não-discriminativos que orientam nossos relacionamentos em nossa esfera ética sejam estendidos aos sistemas avançados de IA, pois quando eles existirem e interagirem conosco em nossa sociedade, sua estrutura física e a forma como vieram à existência serão irrelevantes.

É provável que a maior parte dos questionamentos sobre a maneira correta de tratar mentes artificiais poderá ser respondida através da aplicação dos mesmos princípios morais que nos orientam em nosso contexto social e familiar. Na medida em que os deveres morais para com os outros seres decorrem de considerações sobre seu status moral, e reconhecendo que sistemas complexos de IA qualitativamente idênticos a sistemas complexos biológicos possuirão também esse mesmo status, e por isso poderão adentrar a nossa esfera ética, deveremos tratar a mente artificial da mesma maneira que tratamos uma mente animal e até mesmo da mesma maneira que tratamos uma mente humana. Isto simplifica o problema do desenvolvimento de uma ética para o tratamento de mentes artificiais.

 

Bibliografia

 

  1. BOSTROM, N. and YUDKOWSKY, E. “The Ethics of Artificial Intelligence” (Oxford University Press, 2011) On-line: http://www.nickbostrom.com/ethics/artificial-intelligence.pdf
  2. DENNETT, D. C. “Brainstorms: ensaios filosóficos sobre a mente e a psicologia”. 1. ed. São Paulo: Unesp, 1999. 432p.
  3. KURZWEIL, R. “A Era das Máquinas Espirituais”. São Paulo, SP: Alephe, 2007. 512p.
  4. RAWLS, J. “Uma Teoria da Justiça”. São Paulo, SP: Martins Fontes, 1997. 708p.
  5. SINGER, P. “Ética Prática”. São Paulo, SP: Martins Fontes, 2002. 399p.