Juruá Informativo

Vencedores do Prêmio Nobel fazem alerta sobre as IAs na ONU

Vencedores do Prêmio Nobel fazem alerta sobre as IAs na ONU

Tudo sobre Inteligência Artificial

“A IA tem um imenso potencial para promover o bem-estar humano, mas sua trajetória atual apresenta perigos sem precedentes.” Assim começa a carta assinada por mais 200 políticos e cientistas proeminentes, incluindo 10 ganhadores do Prêmio Nobel. O documento foi lido em um dos eventos da Assembleia Geral da ONU nesta segunda-feira (22) por Maria Ressa, laureada com o Nobel da Paz.

Para os signatários, a inteligência artificial aumenta riscos como pandemias planejadas, desinformação generalizada, manipulação em larga escala de indivíduos, incluindo crianças, preocupações com a segurança nacional e internacional, desemprego em massa e violações sistemáticas dos direitos humanos conforme supera as capacidades humanas.

“Instamos os governos a chegarem a um acordo internacional sobre as linhas vermelhas da IA ​​— garantindo que elas estejam operacionais, com mecanismos de execução robustos — até o final de 2026”, diz a carta. “Essas linhas vermelhas devem se basear e aplicar as estruturas globais existentes e os compromissos corporativos voluntários, garantindo que todos os provedores avançados de IA sejam responsáveis ​​por limites compartilhados.”

maria ressa onu
Maria Ressa, laureada com o Nobel da Paz, leu a carta durante a semana de Alto Nível da Assembleia Geral da ONU (Imagem: TV ONU/Reprodução)

No contexto da IA, linhas vermelhas significam proibições específicas sobre usos ou comportamentos considerados perigosos demais para serem permitidos em quaisquer circunstâncias. São limites, acordados internacionalmente, para evitar que a IA cause riscos universalmente inaceitáveis.

É mesmo algo possível?

A carta explica que as proibições podem se concentrar nos comportamentos da IA e nos usos da IA. E traz alguns exemplos do tipo de limites que podem gerar amplo consenso internacional:

Carta defende acordos internacionalmente para evitar que a IA cause riscos universalmente inaceitáveis (Imagem: Tada Images/Shutterstock)

Leia Mais:

Buscando harmonia

Linhas vermelhas sobre comportamentos de IA já estão em operação, incluindo a Política de Escala Responsável da Anthropic, a Estrutura de Preparação da OpenAI e a Estrutura de Segurança de Fronteira da DeepMind. No entanto, segundo a carta, as medidas precisam ser harmonizadas e fortalecidas entre as diferentes empresas.

Além disso, a Recomendação da UNESCO sobre a Ética da IA abre precedente para as linhas vermelhas, assim como a Lei de IA da União Europeia, que definiu aplicações estritamente proibidas no continente, e o Plano de Ação de IA dos Estados Unidos, que exige a criação de um ecossistema de avaliação.

Linhas vermelhas proibiriam a implantação de sistemas de IA que facilitem o desenvolvimento de armas de destruição em massa (Imagem: ChatGPT/Olhar Digital)

A carta sugere a criação de um órgão internacional imparcial, inspirado em organizações como a Agência Internacional de Energia Atômica (AIEA), para realizar auditorias. Para os signatários, a Rede Internacional de Institutos de Segurança e Proteção em IA poderia desempenhar um papel nesse processo.

Sair da versão mobile