Vencedores do Prêmio Nobel fazem alerta sobre as IAs na ONU

Inteligência artificial

Tudo sobre Inteligência Artificial

“A IA tem um imenso potencial para promover o bem-estar humano, mas sua trajetória atual apresenta perigos sem precedentes.” Assim começa a carta assinada por mais 200 políticos e cientistas proeminentes, incluindo 10 ganhadores do Prêmio Nobel. O documento foi lido em um dos eventos da Assembleia Geral da ONU nesta segunda-feira (22) por Maria Ressa, laureada com o Nobel da Paz.

Para os signatários, a inteligência artificial aumenta riscos como pandemias planejadas, desinformação generalizada, manipulação em larga escala de indivíduos, incluindo crianças, preocupações com a segurança nacional e internacional, desemprego em massa e violações sistemáticas dos direitos humanos conforme supera as capacidades humanas.

“Instamos os governos a chegarem a um acordo internacional sobre as linhas vermelhas da IA ​​— garantindo que elas estejam operacionais, com mecanismos de execução robustos — até o final de 2026”, diz a carta. “Essas linhas vermelhas devem se basear e aplicar as estruturas globais existentes e os compromissos corporativos voluntários, garantindo que todos os provedores avançados de IA sejam responsáveis ​​por limites compartilhados.”

maria ressa onu
Maria Ressa, laureada com o Nobel da Paz, leu a carta durante a semana de Alto Nível da Assembleia Geral da ONU (Imagem: TV ONU/Reprodução)

No contexto da IA, linhas vermelhas significam proibições específicas sobre usos ou comportamentos considerados perigosos demais para serem permitidos em quaisquer circunstâncias. São limites, acordados internacionalmente, para evitar que a IA cause riscos universalmente inaceitáveis.

É mesmo algo possível?

A carta explica que as proibições podem se concentrar nos comportamentos da IA e nos usos da IA. E traz alguns exemplos do tipo de limites que podem gerar amplo consenso internacional:

  • Comando e controle nuclear: Proibir a delegação de autoridade de lançamento nuclear ou decisões críticas de comando e controle a sistemas de IA (um princípio já acordado pelos EUA e pela China);
  • Armas Autônomas Letais: Proibir a implantação e o uso de sistemas de armas usados ​​para matar um ser humano sem controle humano significativo e clara responsabilização humana;
  • Vigilância em massa: Proibição do uso de sistemas de IA para pontuação social e vigilância em massa (adotado por todos os 193 estados-membros da UNESCO);
  • Personificação humana: Proibir o uso e a implantação de sistemas de IA que enganem os usuários, fazendo-os acreditar que estão interagindo com um humano sem revelar sua natureza de IA;
  • Uso malicioso cibernético: Proibir a liberação descontrolada de agentes ciberofensivos capazes de interromper infraestruturas críticas;
  • Armas de destruição em massa: Proibir a implantação de sistemas de IA que facilitem o desenvolvimento de armas de destruição em massa ou que violem as Convenções sobre Armas Biológicas e Químicas;
  • Autorreplicação autônoma: Proibir o desenvolvimento e a implantação de sistemas de IA capazes de se replicar ou melhorar significativamente sem autorização humana explícita;
  • O princípio da terminação: Proibir o desenvolvimento de sistemas de IA que não possam ser imediatamente encerrados se o controle humano significativo sobre eles for perdido (com base nas Diretrizes Universais para IA).
Pessoa mexe em notebook com a tela na página do Google AI Mode
Carta defende acordos internacionalmente para evitar que a IA cause riscos universalmente inaceitáveis (Imagem: Tada Images/Shutterstock)

Leia Mais:

Buscando harmonia

Linhas vermelhas sobre comportamentos de IA já estão em operação, incluindo a Política de Escala Responsável da Anthropic, a Estrutura de Preparação da OpenAI e a Estrutura de Segurança de Fronteira da DeepMind. No entanto, segundo a carta, as medidas precisam ser harmonizadas e fortalecidas entre as diferentes empresas.

Além disso, a Recomendação da UNESCO sobre a Ética da IA abre precedente para as linhas vermelhas, assim como a Lei de IA da União Europeia, que definiu aplicações estritamente proibidas no continente, e o Plano de Ação de IA dos Estados Unidos, que exige a criação de um ecossistema de avaliação.

Ilustração de soldado do Exército dos EUA usando inteligência artificial (IA) em notebook e celular para controlar drones
Linhas vermelhas proibiriam a implantação de sistemas de IA que facilitem o desenvolvimento de armas de destruição em massa (Imagem: ChatGPT/Olhar Digital)

A carta sugere a criação de um órgão internacional imparcial, inspirado em organizações como a Agência Internacional de Energia Atômica (AIEA), para realizar auditorias. Para os signatários, a Rede Internacional de Institutos de Segurança e Proteção em IA poderia desempenhar um papel nesse processo.