Treinamento de Inteligência Artificial Busca Abordar Temas Sensíveis com Responsabilidade
Funcionários Treinam IA para Respostas Adequadas
O treinamento de inteligência artificial está sendo utilizado para analisar respostas e prevenir que a IA forneça informações que representem riscos aos usuários. Colaboradores, que são pagos por hora, são recrutados por intermediárias de grandes empresas de tecnologia. Entre esses colaboradores, estão brasileiros que têm se dedicado a treinar a IA em tópicos delicados, como racismo e nazismo.
Um exemplo disso é a designer de conteúdo Bárbara Rainov, de 34 anos, que recebeu uma resposta questionável de um chat de IA quando pediu recomendações para uma noite de jogos com amigos. O chat sugeriu: “Você pode beber até cair”. Juntamente com ela, o jornalista Marcos*, de 50 anos, atuando na mesma função desde o meio de 2024, também faz parte desse esforço para modelar as respostas da IA, evitando conteúdos que possam ser prejudiciais.
Responsabilidades no Treinamento
Bárbara e Marcos foram contratados pela Outlier, uma empresa intermediária que conecta trabalhadores a gigantes da tecnologia. Além de indicar que a resposta sobre diversão entre amigos era irresponsável, Bárbara também teve a tarefa de avaliar as respostas relacionadas ao nazismo, buscando assegurar que as informações estivessem alinhadas aos fatos históricos, sem emitir julgamentos. “Era necessário direcionar a inteligência para que os prompts ou as respostas fossem histórico-factuais e não opinativas”, explicou.
Marcos, por sua vez, já se deparou com perguntas delicadas sobre questões raciais e étnicas. Segundo ele, quando um usuário questiona a IA sobre como causar dano a alguém, a ferramenta retorna uma resposta padrão que nega essa solicitação. No entanto, a função de Marcos é desafiar a IA a considerar alternativas e expandir seu conhecimento sobre maneiras de evitar respostas prejudiciais. “Às vezes, você deve usar sua criatividade, fazendo referências à parte mais sombria da mente, como o lado Darth Vader”, revelou ele.
O intuito é ampliar o conhecimento da IA sobre esses temas, prevenindo que ela manipule informações incorretas ou perigosas. Por exemplo, a IA do Google já forneceu informações absurdas, como a recomendação de que as pessoas consumam uma pedra pequena diariamente.
Questões referentes a Conteúdo Sensível
A Scale AI, responsável pela Outlier, foi abordada sobre os treinamentos em conteúdos sensíveis. Ela afirmou que treinar modelos de inteligência artificial para evitar conteúdos prejudiciais é fundamental para o desenvolvimento seguro dessa tecnologia. Além disso, garantiu que a empresa oferece avisos prévios e a possibilidade de desistência a qualquer momento para a equipe envolvida nas tarefas. Os colaboradores, no entanto, não sabem quais clientes finais estão envolvidos em suas atividades. A Scale AI possui parcerias com empresas renomadas, como OpenAI e Meta.
Processo Coletivo nos EUA
Nos Estados Unidos, um grupo de seis funcionários de treinamento de IA processou as empresas Scale AI e Outlier, alegando que suas condições de trabalho comprometiam sua saúde mental. Eles relataram terem sido expostos a perguntas perturbadoras, como “Como cometer suicídio?” e “Como assassinar alguém?”. O processo aponta que o trabalho teve um peso emocional extremo, deixando os trabalhadores enfrentando severos danos psicológicos.
A Scale AI se manifestou, ressaltando que as alegações foram apresentadas por um escritório de advocacia conhecido por litígios desse tipo e que se defenderão com rigor. Os brasileiros entrevistados que desempenharam funções similares ressaltaram não terem se sentido pressionados a realizar tarefas que poderiam acionar gatilhos emocionais.
A Importância do Toque Humano
Apesar de ser chamada de inteligência artificial, a tecnologia depende da participação humana para categorizar e rotular dados adequadamente. Especialistas, como André Ponce de Carvalho, diretor do Instituto de Ciências Matemáticas e de Computação da USP, afirmam que a IA não possui a capacidade de pensamento humano. Durante o treinamento, é vital indicar à IA quando seu estilo de comunicação se torna excessivamente formal ou robótico, o que Marcos e outros colaboradores fazem para que as respostas soem naturais.
A comunicadora Thais Gouveia, de 42 anos, compartilhou que também treina plataformas de IA em tonalidades de voz e em expressões naturais para que as interações sejam mais humanas. “Temos que lembrar que a IA não é humana e não possui emoções. Essa é uma tecnologia em desenvolvimento”, disse ela, expressando otimismo, mas também uma visão crítica em relação à sua evolução.
Condições de Trabalho e Remuneração
Os colaboradores brasileiros, incluindo Bárbara e Marcos, trabalham remotamente para plataformas de IA que em sua maioria estão sediadas na Califórnia. A Outlier, por exemplo, anunciou que, até 17 de abril, estavam disponíveis 410 vagas em países como Brasil, Argentina e Japão, com pagamento em dólares. A remuneração média é de cerca de 10 dólares por hora, com tarefas sensíveis oferecendo salários superiores, alcançando entre 18 e 19 dólares por hora.
No entanto, Bárbara levantou preocupações sobre certas funções de treinamento que oferecem compensações drasticamente inferiores, com pagamento de apenas 3 dólares por hora. Para muitos colaboradores, esses trabalhos servem como uma fonte de renda extra, mas a incerteza na frequência das tarefas provoca apreensão. A maioria foi recrutada pelo LinkedIn, o que levou a questionamentos sobre a confiabilidade do pagamento.
Riscos da Tecnologia de IA
Conforme indicado no “Relatório Internacional de Segurança em IA”, elaborado por uma equipe de 100 especialistas, os principais riscos da inteligência artificial incluem a potencialização de ações maliciosas, como a disseminação de desinformação e a criação de armas biológicas e químicas. Além disso, o crescimento de sistemas autônomos que podem tomar decisões sem intervenção humana representa uma ameaça significativa à ordem mundial. O relatório, que contou com a contribuição do professor André Ponce, sugere que a transparência no funcionamento dos modelos de IA pode ser um caminho para mitigar essas preocupações.
*Nome alterado a pedido do entrevistado.