Tudo sobre Inteligência Artificial
“A IA tem um imenso potencial para promover o bem-estar humano, mas sua trajetória atual apresenta perigos sem precedentes.” Assim começa a carta assinada por mais 200 políticos e cientistas proeminentes, incluindo 10 ganhadores do Prêmio Nobel. O documento foi lido em um dos eventos da Assembleia Geral da ONU nesta segunda-feira (22) por Maria Ressa, laureada com o Nobel da Paz.
Para os signatários, a inteligência artificial aumenta riscos como pandemias planejadas, desinformação generalizada, manipulação em larga escala de indivíduos, incluindo crianças, preocupações com a segurança nacional e internacional, desemprego em massa e violações sistemáticas dos direitos humanos conforme supera as capacidades humanas.
“Instamos os governos a chegarem a um acordo internacional sobre as linhas vermelhas da IA — garantindo que elas estejam operacionais, com mecanismos de execução robustos — até o final de 2026”, diz a carta. “Essas linhas vermelhas devem se basear e aplicar as estruturas globais existentes e os compromissos corporativos voluntários, garantindo que todos os provedores avançados de IA sejam responsáveis por limites compartilhados.”

No contexto da IA, linhas vermelhas significam proibições específicas sobre usos ou comportamentos considerados perigosos demais para serem permitidos em quaisquer circunstâncias. São limites, acordados internacionalmente, para evitar que a IA cause riscos universalmente inaceitáveis.
É mesmo algo possível?
A carta explica que as proibições podem se concentrar nos comportamentos da IA e nos usos da IA. E traz alguns exemplos do tipo de limites que podem gerar amplo consenso internacional:
- Comando e controle nuclear: Proibir a delegação de autoridade de lançamento nuclear ou decisões críticas de comando e controle a sistemas de IA (um princípio já acordado pelos EUA e pela China);
- Armas Autônomas Letais: Proibir a implantação e o uso de sistemas de armas usados para matar um ser humano sem controle humano significativo e clara responsabilização humana;
- Vigilância em massa: Proibição do uso de sistemas de IA para pontuação social e vigilância em massa (adotado por todos os 193 estados-membros da UNESCO);
- Personificação humana: Proibir o uso e a implantação de sistemas de IA que enganem os usuários, fazendo-os acreditar que estão interagindo com um humano sem revelar sua natureza de IA;
- Uso malicioso cibernético: Proibir a liberação descontrolada de agentes ciberofensivos capazes de interromper infraestruturas críticas;
- Armas de destruição em massa: Proibir a implantação de sistemas de IA que facilitem o desenvolvimento de armas de destruição em massa ou que violem as Convenções sobre Armas Biológicas e Químicas;
- Autorreplicação autônoma: Proibir o desenvolvimento e a implantação de sistemas de IA capazes de se replicar ou melhorar significativamente sem autorização humana explícita;
- O princípio da terminação: Proibir o desenvolvimento de sistemas de IA que não possam ser imediatamente encerrados se o controle humano significativo sobre eles for perdido (com base nas Diretrizes Universais para IA).

Leia Mais:
- O plano da China para se tornar uma superpotência de IA
- Governo dos EUA vai usar modelo de IA da Meta
- Como usar ChatGPT sem abrir mão de seus dados e privacidade
Buscando harmonia
Linhas vermelhas sobre comportamentos de IA já estão em operação, incluindo a Política de Escala Responsável da Anthropic, a Estrutura de Preparação da OpenAI e a Estrutura de Segurança de Fronteira da DeepMind. No entanto, segundo a carta, as medidas precisam ser harmonizadas e fortalecidas entre as diferentes empresas.
Além disso, a Recomendação da UNESCO sobre a Ética da IA abre precedente para as linhas vermelhas, assim como a Lei de IA da União Europeia, que definiu aplicações estritamente proibidas no continente, e o Plano de Ação de IA dos Estados Unidos, que exige a criação de um ecossistema de avaliação.

A carta sugere a criação de um órgão internacional imparcial, inspirado em organizações como a Agência Internacional de Energia Atômica (AIEA), para realizar auditorias. Para os signatários, a Rede Internacional de Institutos de Segurança e Proteção em IA poderia desempenhar um papel nesse processo.