Princípios Asilomar de IA

O Instituto do Futuro da Vida delineou os Princípios Asilomar de IA, uma lista de 23 diretrizes que os pesquisadores de inteligência artificial, cientistas e legisladores devem respeitar para garantir o uso seguro, ético e benéfico da IA.

A inteligência artificial já forneceu ferramentas benéficas que são usadas diariamente por pessoas de todo o mundo. Seu desenvolvimento contínuo, guiado pelos seguintes princípios, oferecerá oportunidades incríveis para ajudar e capacitar as pessoas nas décadas e séculos à frente.

  • Questões na área de pesquisa

1) Objetivo da pesquisa: O objetivo da pesquisa da IA deve não ser criar inteligência sem objetivos, mas criar inteligência benéfica.

2) Financiamento da Pesquisa: Os investimentos em IA devem ser acompanhados de financiamento para pesquisas para garantir seu uso benéfico, incluindo questões espinhosas em ciência da computação, economia, direito, ética e estudos sociais, tais como:

    • Como podemos tornar os futuros sistemas IA altamente robustos, para que eles façam o que queremos sem problemas ou sem hackers?
    • Como podemos aumentar nossa prosperidade através da automação, mantendo os recursos e o propósito das pessoas?
    • Como podemos atualizar nossos sistemas legais para ser mais justos e eficientes, para acompanhar a IA e para gerenciar os riscos associados à IA?
    • Que conjunto de valores a IA deve ser alinhada com, e que estado legal e ético deveria ter?

3) Comunicação entre Ciência e Política: Deve haver um intercâmbio construtivo e saudável entre os pesquisadores de IA e os decisores políticos.

4) Cultura de Pesquisa: Uma cultura de cooperação, confiança e transparência deve ser promovida entre pesquisadores e desenvolvedores de IA.

5) Prevenção de competição: As equipes que desenvolvem sistemas de IA devem cooperar ativamente para evitarem subinvestimentos em normas de segurança.

  • Ética e Valores

6) Segurança: Os sistemas IA devem ser seguros e seguros durante toda a sua vida operacional, e de forma verificável sempre que aplicável e viável.

7) Transparência de falha: Se um sistema de IA causar dano, deve ser possível determinar o porquê.

8) Transparência Judicial: Qualquer envolvimento de um sistema autônomo na tomada de decisões judiciais deve fornecer uma explicação satisfatória e auditável por uma autoridade humana competente.

9) Responsabilidade: Designers e construtores de sistemas avançados de IA são partes responsáveis nas implicações morais de seu uso, abuso e ações, com uma responsabilidade e oportunidade para moldar essas implicações.

10) Alinhamento do Valor: Sistemas IA altamente autônomos devem ser concebidos de modo que seus objetivos e comportamentos podem ser assegurados para se alinhar com os valores humanos em toda a sua operação.

11) Valores Humanos: Os sistemas de IA devem ser concebidos e operados de forma a serem compatíveis com os ideais de dignidade humana, direitos, liberdades e diversidade cultural.

12) Privacidade pessoal: As pessoas devem ter o direito de acessar, gerenciar e controlar os dados que geram, dado o poder dos sistemas IA de analisar e utilizar esses dados.

13) Liberdade e Privacidade: A aplicação da IA aos dados pessoais não deve restringir injustificadamente a liberdade real ou percebida das pessoas.

14) Benefício compartilhado: As tecnologias da IA devem beneficiar e capacitar o maior número possível de pessoas.

15) Prosperidade compartilhada: A prosperidade econômica criada pela IA deve ser amplamente compartilhada em benefício de toda a humanidade.

16) Controle Humano: Os seres humanos devem poder escolher como e quais decisões se delegar aos sistemas de IA, para realizar objetivos humanos.

17) Não-subversão: O poder conferido pelo controle de sistemas IA altamente avançados deve respeitar e melhorar, em vez de subverter, os processos sociais e cívicos de que a saúde da sociedade depende.

18) Corrida Armamentista de IA: Uma corrida armamentista em armas autônomas letais deve ser evitada.

  • Questões de Longo Prazo

19)  Cuidado de Capacidade: Não havendo consenso, devemos evitar suposições fortes em relação aos limites superiores das capacidades futuras de IA.

20) Importância: A IA avançada pode representar uma profunda mudança na história da vida na Terra, e deve ser planejada e administrada com cuidados e recursos proporcionais.

21) Riscos: Os riscos colocados pelos sistemas de AI, especialmente os riscos catastróficos ou existenciais, devem estar sujeitos a esforços de planejamento e mitigação proporcionais ao impacto esperado.

22) Auto-aperfeiçoamento recursivo: os sistemas de IA concebidos para recursivamente auto-aperfeiçoar ou auto-replicar de uma forma que poderia levar a um aumento rápido da qualidade ou da quantidade devem ser sujeitos a medidas rigorosas de segurança e controlo.

23) Bem Comum: A superinteligência só deve ser desenvolvida a serviço de ideais éticos amplamente compartilhados, e em benefício de toda a humanidade em vez de um estado ou organização.

A lista foi assinada por vários pesquisadores e nomes renomados como Stephen Hawking e Elon Musk, a lista de assinaturas pode ser visualizada no site oficial: Future of Life Institute – Asilomar AI Principles