Ícone do site Juruá Informativo

Investigação expõe bastidores do treinamento de IA com material sensível e dados de redes sociais

Uma investigação do jornal The Guardian revelou que milhares de trabalhadores foram pagos por uma empresa parcialmente controlada pela Meta para treinar sistemas de inteligência artificial. Em muitos casos, eles tiveram que executar tarefas controversas, como coleta de dados em redes sociais, uso de conteúdo protegido por direitos autorais e análise de materiais sensíveis, como imagens pornográficas e de animais mortos.

Continua após a publicidade

Segundo a reportagem, a Scale AI – companhia da qual a Meta detém 49% – recruta profissionais por meio da plataforma Outlier, oferecendo trabalho remoto e flexível para pessoas com formação em áreas como medicina, física e economia. O site da empresa convida candidatos com o slogan: “Torne-se o especialista de quem a IA aprende”.

Na prática, trabalhadores relataram que as atividades iam além do treinamento técnico de modelos avançados. Parte das tarefas envolvia a coleta e organização de dados de usuários em plataformas como Facebook e Instagram, incluindo imagens, conexões sociais e informações pessoais – até de menores de idade. Para alguns participantes, o processo gerou desconforto ético.

“Acho que as pessoas não entenderam muito bem que haveria alguém em uma mesa, em um estado qualquer, olhando para o seu perfil [de mídia social] e usando-o para gerar dados de IA”, afirmou um dos consultores ouvidos pela reportagem.

O Guardian entrevistou dez pessoas que atuaram na plataforma, muitas delas conciliando o trabalho com outras ocupações, como jornalismo, ensino e pesquisa acadêmica. Segundo relatos, a motivação foi financeira, para complementar renda.

Além da coleta de dados, os chamados “taskers” também foram expostos a conteúdos considerados perturbadores. Entre as tarefas descritas estão a transcrição de áudios pornográficos, a rotulagem de imagens de animais mortos e até a análise de cenários violentos. Um estudante de doutorado relatou ter sido instruído a classificar um diagrama da genitália de um bebê, apesar de garantias iniciais de que não haveria material sensível.

“Já nos tinham dito antes que não haveria nudez nesta missão. Comportamento apropriado, nada de violência gráfica, nada de sangue”, afirmou. “Mas depois aparecia uma transcrição de áudio de pornografia ou simplesmente trechos aleatórios de pessoas vomitando sem motivo aparente”.

Outro ponto levantado foi o uso de obras artísticas, protegidas por direitos autorais, para treinar modelos de geração de imagem. Trabalhadores disseram que precisavam buscar conteúdos originais para alimentar os sistemas – muitas vezes nas próprias redes sociais de artistas. Em alguns casos, havia instruções explícitas para não utilizar imagens geradas por IA, apenas produções humanas.

Paralelamente, os colaboradores relataram condições de trabalho instáveis, com remuneração variável, monitoramento constante e processos seletivos não remunerados. A plataforma utilizaria ferramentas de rastreamento de atividade, como captura de tela, durante a execução das tarefas.

Segundo Glenn Danas, advogado que representa trabalhadores do setor, centenas de milhares de pessoas atuam em plataformas desse tipo ao redor do mundo. Para muitos, há a percepção de que estão contribuindo para o desenvolvimento de tecnologias que podem substituir suas próprias funções. Um artista descreveu sentir “vergonha e culpa internalizadas” por “contribuir diretamente para a automação de minhas esperanças e sonhos”.

Continua após a publicidade
A Meta comprou Scale AI em junho de 2025, por US$14,3 bilhões – Imagem: T. Schneider – Shutterstock

O que diz a Scale AI sobre o treinamento de IA?

Por meio de um porta-voz, a Scale AI afirmou ao jornal que a Outlier oferece trabalho sob demanda com “remuneração transparente” e que os colaboradores têm liberdade para escolher projetos e horários. A empresa também declarou que tarefas com conteúdo inadequado podem ser interrompidas e que não aceita projetos envolvendo abuso sexual infantil ou pornografia.

Ainda assim, a investigação levanta questionamentos sobre a forma como dados são coletados e utilizados no treinamento de modelos de IA, além das condições de trabalho em um setor que cresce rapidamente à medida que a demanda por sistemas mais avançados aumenta.

Leia mais:

O que faz a Scale AI, empresa visada pela Meta?

Meta pode parar de financiar seu próprio Conselho de Supervisão

Google e Meta superam SBT e Band em verbas do governo Lula
Continua após a publicidade

A Scale AI também atende Google, Anthropic, o Departamento de Defesa dos Estados Unidos e o governo do Catar. A empresa atendia a OpenAI, mas a parceria foi encerrada no ano passado, após a compra de parte da startup por parte da companhia de Mark Zuckerberg.

A Meta e a Anthropic não responderam a pedidos de comentários do The Guardian.

Vitoria Lopes Gomez

Vitoria Lopes Gomez é jornalista formada pela Universidade Estadual Paulista (UNESP) e redatora do Olhar Digital.

Ver todos os artigos →

Tags:
meta
scale ai


Conteúdo reproduzido originalmente em: Olhar Digital por Vitoria Lopes Gomez

Sair da versão mobile