Dois bias que podem acabar com a humanidade

Por João Lourenço, 2012 *

 

Um bias cognitivo é uma tendência inerente que temos ao pensarmos ou analisarmos determinadas situações, de cometer desvios sistemáticos de racionalidade 1. Por vezes, esses desvios de raciocínio pode nos levar a pequenos equívocos, mas em alguns casos, os erros podem ser significativamente relevantes para sobrevivência de nossa espécie.

Existem dois vieses que não estão listados em nenhum livro sobre bias cognitivos que considero como os principais e mais relevantes para nossas avaliações de potencias riscos catastróficos à raça humana: O bias Observacional e o bias Intencional.

Nesse texto trataremos brevemente dos dois.
 

Bias Observacional 2

Imagine um jogo de computador baseado na evolução, com pequenas entidades peculiares auto-replicadoras existindo em um ambiente virtual, que são capazes de gerar algoritmos 3 comportamentais 4. A cada período regular de T segundos, a simulação é reiniciada extinguido totalmente as populações anteriores sem deixar resquícios de seu passado. No entanto, o evento somente ocorre, caso as entidades não tenham desenvolvido um conjunto muito específico de algoritmos.

O leitor mais esperto poderia imaginar que essas nossas entidades teriam uma tendência a permitir que esse tipo de algoritmo específico evoluísse, pois de outro modo as entidades seriam extintas. Mas, esta impressão está incorreta, pois durante toda a história de uma dessas populações de entidades virtuais, muito provavelmente não há qualquer razão específica para que esta população tenha desenvolvido este algoritmo.

Se, sem aviso prévio, o programa se reinicie, a população que possui o algoritmo em questão sobrevive, a população que não o possui, será completamente devastada.

 

O problema é que não há chance de que as entidades que sofreram o holocausto passem às gerações futuras a informação de que um Dia do Juízo ocorrerá, e que somente aquelas populações com o algoritmo sobreviverão; não há chance de nossas pobres entidades aprenderem evolutivamente deste horrendo acontecimento, pois cada vez que ele acontece, o jogo é reiniciado do zero.

Apesar de estarem sob o risco de extinção, essas ingênuas populações nunca tomam conhecimento deste fato, pela simples razão de que todas as entidades que poderiam passar essa informação para próxima geração terem sido aniquiladas no evento anterior que reiniciou o sistema. Por outro lado, as gerações que não são extintas por possuírem o algoritmo não estão sob este tipo de risco para se informarem dele.

Se há uma pressão evolutiva agindo seria uma seleção por ignorância. Além disso, se assumirmos um crescimento populacional maior que zero, se você é uma dessas entidades, a maior probabilidade é que esteja mais próximo do tempo T de extinção do que mais longe. Isto é uma conclusão facilmente obtida a partir do Self-Sample Assumption (SSA) 5 pois se você é uma entidade aleatória que não sabe quando será extinta, mas sabe que a maioria das entidades está mais próxima do fim do que do começo, então você deve assumir que está mais próxima de ser extinta do que não. Uma população de entidades rudimentares, em seu princípio, pode ter um futuro vasto a sua frente. Enquanto que uma população já extremamente evoluída e adaptada ao ambiente provavelmente está mais próxima do fim.

É fácil constatar que nós partilhamos da mesma ignorância destas ingênuas e ledas entidades. Nós só estamos vivos porque não fomos extintos, logo, não podemos usar esse dado para calcular nossa probabilidade de extinção. O dado significante de há quanto tempo existimos sem sermos extintos não é relevante, pois o que se da é o inverso, quanto mais tempo permanecemos vivos, maior a probabilidade de sermos extintos no instante seguinte.

Temos, portanto, de usar outros meios indiretos para obtermos informações relevantes sobre a proximidade do fim de nossa civilização 6.
 

Bias da Intencionalidade

Durante a maior parte da história da humanidade, os eventos naturais eram em sua maior parte inevitáveis e matavam muitas menos pessoas do que os eventos humanos evitáveis. Naturalmente, aqueles que sabiam evitar a sua própria morte provocada intencionalmente por outro ser da mesma espécie, sobreviviam por mais tempo em oposição aos que não eram capazes de fazer isso.

Os humanos que desnecessariamente desprendiam energia em evitar eventos inevitáveis – mantendo o resto constante – tendiam a não sobreviver frente à grande escassez energética. Esta situação criou um bias até pouco tempo vantajoso, de se preocupar muito mais com perigos intencionais do que não intencionais.

Esse é talvez o principal bias capaz de desviar a atenção da humanidade para os eventos catastróficos mais significativos. Só muito recentemente, nos demos conta de um destes muitos perigos: o aquecimento global. No entanto, nossa percepção disso nos levou a identificar países ou indústrias como culpadas, ou seja, atribuindo intencionalidade a suas ações, enquanto os outros inúmeros males permanecem na penumbra.

Notas


  1. * Texto original escrito por João Lourenço. A revisão foi feita por Pablo de Araújo que assume a responsabilidade por eventuais erros na revisão final.
  1. Nossos mecanismos cognitivos (isto é, mecanismos de pensamento, raciocínio, inferência etc) são enviesados, ou seja, viciados em determinadas direções, nos tornando mais propensos a cometer certos tipos de erros, por exemplo, de identificação ou de estimação de tempo, probabilidades, etc.
  2. O Bias Observacional é um bias sobre a nossa ausência de informação com respeito a nossa probabilidade de extinção. Tratei de modo mais axiomático deste bias em http://brainstormers.wordpress.com/2009/09/28/a-filosofia-de-nick-bostrom-parte-1/. Aqui tentarei expor ele de maneira mais concreta.
  3. “Algoritmo é um tipo de processo formal no qual se pode confiar – logicamente – que produza uma determinada espécie de resultado sempre que for “posto para funcionar” ou evidenciado. (…) A idéia de que o algoritmo é um procedimento infalível de comprovação e de certa forma “mecânico” existe há séculos, mas foi o trabalho de pioneiros de Alan Turing, Kurt Godel e Alonzo Church, na década de 1930, que de certa forma fixou a nossa atual compreensão do termo.” Para Darwin, a evolução das espécies se dava por meio de um processo algoritmo, embora ele não tenha usado essa expressão, que não era conhecida na época. (DENNETT, D.C. A Perigosa Idéia de Darwin – A Evolução e os Significados da Vida, 1998, p.52).
  4. Richard Dawkins explorou um jogo semelhante a esse em seu livro O Relojoeiro Cego. Dawkins utilizou um programa de computador (Blind Watchmaker) para criar por seleção artificial criaturas chamadas de biomorfos computadorizados. Todos os biomorfos possuíam um ancestral comum e são capazes de gerar cópias que herdam todo o material genético dos pais, mas com alguma possibilidade de mutação.
  5. Para um melhor entendimento do SSA, veja “A Filosofia de Nick Bostrom, Parte I” no mesmo link indicado na nota 3 desse texto.
  6. Digamos que existam no total 10 civilizações iguais isoladas no universo e 9 delas são extintas, sobrando apenas uma. Essa uma civilização tem a evidencia que ela existe, mas essa evidencia não diz nada sobre a probabilidade dela não ter sido extinta, que é 1/10. Seja lá qual tenha sido o numero de civilizações iguais a ela extintas a observação de que ela não foi extinta será sempre um. São duas observações com duas probabilidade totalmente não relacionadas e uma não informa sobre a outra. Qualquer civilização, seja lá com qual probabilidade de extinção, sempre fará a observação “eu existo e não fui extinta” com probabilidade 1. Não podemos usar a nossa existência para estimar a probabilidade de extinção, pois só aquelas civilizações que não são extintas podem realizar observações e é claro que a observação “não fomos extintos” terá sempre probabilidade 1, independente da probabilidade de extinção. Bayesianamente podemos dizer que, seja x pertencente aos reais, a probabilidade condicional de “x% das civilizações são extintas” em “não fomos extintos” é igual a probabilidade incondicional de “x% das civilizações são extintas”, ou seja “não fomos extintos” não nos informa nada sobre a probabilidade de que uma civilização (i.e.: a nossa) seja extinta. Em certa medida é uma limitação do conhecimento que podemos tirar da nossa própria “auto” observação. Para estimarmos a nossa probabilidade de extinção temos que olhar para outros planetas, etc