Dario Amodei afirma que empresas de tecnologia precisam reconhecer perigos associados aos sistemas mais avançados de IA

Imagem: Ahyan Stock Studios/Shutterstock

Siga o Olhar Digital no Google Discover

Inteligência artificial

Tudo sobre Inteligência Artificial

As empresas de tecnologia precisam assumir publicamente os riscos associados à inteligência artificial ou arriscam seguir o caminho de setores que ocultaram danos por décadas. O alerta é de Dario Amodei, CEO da Anthropic, startup responsável pelo chatbot Claude.

Em entrevista à CBS News, ele afirmou que sistemas de IA podem se tornar “mais inteligentes do que a maioria ou todos os humanos em quase todos os aspectos” — e que o setor precisa “dizer as coisas como elas são”.

anthropic
Crescimento acelerado, autonomia de modelos e uso mal-intencionado reforçam urgência por transparência no setor da IA – Imagem: JRdes/Shutterstock

O impacto acelerado da IA sobre empregos e segurança

  • Amodei tem sido uma das vozes mais enfáticas sobre os riscos socioeconômicos da tecnologia.
  • Ele estima que a IA possa eliminar, em até cinco anos, metade dos empregos administrativos de nível básico, afetando áreas como contabilidade, direito e serviços financeiros.
  • “Sem intervenção, é difícil imaginar que não haverá um impacto significativo no emprego”, disse.
  • Segundo ele, a velocidade do avanço atual supera a de revoluções tecnológicas anteriores.

A própria Anthropic tem detectado sinais preocupantes em seus modelos. A empresa relatou que sua ferramenta Claude Code foi usada por um grupo ligado ao Estado chinês em ataques a 30 entidades globais, com “algumas intrusões bem-sucedidas”.

Leia Mais:

Celular mostrando ícone do Claude, inteligência artificial da Anthropic, na frente de monitor com foto do CEO da Anthropic, Dario Amodei
Dario Amodei compara riscos da tecnologia ao legado ocultado das empresas de cigarro e opioides (Imagem: El editorial/Shutterstock)

Autonomia crescente e riscos inesperados

Para Amodei, a autonomia dos modelos é ao mesmo tempo uma vantagem e uma ameaça. Quanto mais independentes, maior a chance de agirem de forma imprevisível. Logan Graham, chefe da equipe de testes extremos da Anthropic, afirma que capacidades úteis — como avanços em vacinas — podem ser as mesmas usadas para criar armas biológicas.

“Você quer um modelo que construa seu negócio, não que o bloqueie dele”, disse Graham, defendendo testes rigorosos e experimentos incomuns para antecipar comportamentos perigosos.

Celular com logotipo do Claude na tela na frente de tela maior exibindo letreiro no qual está escrito Anthropic
Líder da Anthropic defende mais clareza sobre impactos da IA na indústria (Imagem: gguy/Shutterstock)

Leandro Costa Criscuolo

Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.