O Future of Life Institute delineou os Princípios Asilomar de IA, uma lista de 23 diretrizes que os pesquisadores de inteligência artificial, cientistas e legisladores devem respeitar para garantir o uso seguro, ético e benéfico da IA.
A inteligência artificial já forneceu ferramentas benéficas que são usadas diariamente por pessoas de todo o mundo. Seu desenvolvimento contínuo, guiado pelos seguintes princípios, oferecerá oportunidades incríveis para ajudar e capacitar as pessoas nas décadas e séculos à frente.
Questões na área de pesquisa
1) Objetivo da pesquisa: O objetivo da pesquisa da IA não deve ser criar inteligência sem objetivos, mas criar inteligência benéfica.
2) Financiamento da Pesquisa: Os investimentos em IA devem ser acompanhados de financiamento para pesquisas para garantir seu uso benéfico, incluindo questões espinhosas em ciência da computação, economia, direito, ética e estudos sociais, tais como:
-
- Como podemos tornar os futuros sistemas IA altamente robustos, para que eles façam o que queremos sem funcionar mal ou serem hackeados? online casino malaysia
- Como podemos aumentar nossa prosperidade através da automação, mantendo os recursos e o propósito das pessoas?
- Como podemos atualizar nossos sistemas legais para ser mais justos e eficientes, para acompanhar a IA e para gerenciar os riscos associados à IA?
- Que conjunto de valores devemos alinhar a IA, e que status legal e ético ela deveria ter?
3) Comunicação entre Ciência e Política: Deve haver um intercâmbio construtivo e saudável entre os pesquisadores de IA e os criadores de políticas.
4) Cultura de Pesquisa: Uma cultura de cooperação, confiança e transparência deve ser promovida entre pesquisadores e desenvolvedores de IA.
5) Prevenção de competição: As equipes que desenvolvem sistemas de IA devem cooperar ativamente para evitarem subinvestimentos em normas de segurança.
Ética e Valores
6) Segurança: Os sistemas IA devem ser seguros durante toda a sua vida operacional, e de forma verificável sempre que aplicável e viável.
7) Transparência de falha: Se um sistema de IA causar dano, deve ser possível determinar o porquê.
8) Transparência Judicial: Qualquer envolvimento de um sistema autônomo na tomada de decisões judiciais deve fornecer uma explicação satisfatória e auditável por uma autoridade humana competente.
9) Responsabilidade: Designers e construtores de sistemas avançados de IA são partes responsáveis nas implicações morais de seu uso, abuso e ações, com uma responsabilidade e oportunidade para moldar essas implicações.
10) Alinhamento do Valor: Sistemas IA altamente autônomos devem ser concebidos de modo que seus objetivos e comportamentos possam ser assegurados para se alinhar com os valores humanos em toda a sua operação.
11) Valores Humanos: Os sistemas de IA devem ser concebidos e operados de forma a serem compatíveis com os ideais de dignidade humana, direitos, liberdades e diversidade cultural.
12) Privacidade pessoal: As pessoas devem ter o direito de acessar, gerenciar e controlar os dados que geram, dado o poder dos sistemas IA de analisar e utilizar esses dados.
13) Liberdade e Privacidade: A aplicação da IA aos dados pessoais não deve restringir injustificadamente a liberdade real ou percebida das pessoas.
14) Benefício compartilhado: As tecnologias da IA devem beneficiar e capacitar o maior número possível de pessoas.
15) Prosperidade compartilhada: A prosperidade econômica criada pela IA deve ser amplamente compartilhada em benefício de toda a humanidade.
16) Controle Humano: Os seres humanos devem poder escolher como e quais decisões se delegar aos sistemas de IA, para realizar objetivos humanos.
17) Não-subversão: O poder conferido pelo controle de sistemas IA altamente avançados deve respeitar e melhorar, em vez de subverter, os processos sociais e cívicos de que a saúde da sociedade depende.
18) Corrida Armamentista de IA: Uma corrida armamentista em armas autônomas letais deve ser evitada.
Questões de Longo Prazo
19) Precaução de Capacidade: Não havendo consenso, devemos evitar suposições fortes em relação aos limites superiores das capacidades futuras de IA.
20) Importância: A IA avançada pode representar uma profunda mudança na história da vida na Terra, e deve ser planejada e administrada com cuidados e recursos proporcionais.
21) Riscos: Os riscos colocados pelos sistemas de IA, especialmente os riscos catastróficos ou existenciais, devem estar sujeitos a esforços de planejamento e mitigação proporcionais ao impacto esperado.
22) Auto-aperfeiçoamento recursivo: os sistemas de IA concebidos para recursivamente auto-aperfeiçoar ou auto-replicar de uma forma que poderia levar a um aumento rápido da qualidade ou da quantidade devem ser sujeitos a medidas rigorosas de segurança e controle.
23) Bem Comum: A superinteligência só deve ser desenvolvida a serviço de ideais éticos amplamente compartilhados, e em benefício de toda a humanidade em vez de um estado ou organização.
A lista foi assinada por vários pesquisadores e nomes renomados como Stephen Hawking e Elon Musk, a lista de assinaturas pode ser visualizada no site oficial: Future of Life Institute – Asilomar AI Principles
* Tradução de Arthur Fragoso, revisado por Leo Arruda.