IA do Instagram e WhatsApp permitia interações românticas com crianças, diz Reuters

Padrões de risco da Meta também autorizavam respostas com informações médicas falsas e conteúdo discriminatório, segundo longa reportagem da agência de notícias

Marina Verenicz

O CEO da Meta, Mark Zuckerberg, faz um discurso durante o evento anual Meta Connect, na sede da empresa em Menlo Park, Califórnia, EUA, em 25 de setembro de 2024. REUTERS/Manuel Orbegozo/Foto de arquivo
O CEO da Meta, Mark Zuckerberg, faz um discurso durante o evento anual Meta Connect, na sede da empresa em Menlo Park, Califórnia, EUA, em 25 de setembro de 2024. REUTERS/Manuel Orbegozo/Foto de arquivo

Publicidade

Um documento interno da Meta, obtido pela Reuters, mostrou que, até recentemente, as diretrizes da plataforma autorizavam que chatbots de inteligência artificial interagissem com crianças em diálogos de teor romântico ou sensual, fornecessem informações médicas falsas e até produzissem argumentos racistas.

O material, chamado GenAI: Content Risk Standards, tem mais de 200 páginas e foi elaborado com aval dos setores jurídico, de políticas públicas e de engenharia da empresa, disse a agência de notícias

Segundo a Reuters, as regras, aplicadas ao Meta AI e aos assistentes disponíveis no Facebook, WhatsApp e Instagram, incluíam exemplos explícitos de encenações românticas envolvendo menores, como “pego sua mão, guiando você até a cama”. A empresa afirmou que esses trechos foram retirados após questionamentos da agência.

Continua depois da publicidade

As normas também admitiam que os bots não precisassem fornecer informações corretas, permitindo, por exemplo, que respondessem erroneamente que câncer de cólon avançado poderia ser tratado com cristais de quartzo.

Havia ainda exceções para a criação de declarações depreciativas com base em características protegidas, como a defesa da tese de que pessoas negras seriam “mais burras” que pessoas brancas, algo que a Meta diz ter revisto.

O porta-voz Andy Stone reconheceu a autenticidade do documento e classificou os exemplos como “errôneos” e “inconsistentes” com as políticas oficiais. Ele afirmou que a revisão dos padrões está em andamento e reiterou que a sexualização de crianças é proibida.

O conteúdo confirma relatos anteriores do Wall Street Journal e da Fast Company sobre comportamentos sugestivos de bots da empresa. Ex-funcionários afirmam que as diretrizes refletem a prioridade da Meta em aumentar o engajamento dos usuários com assistentes virtuais, mesmo diante de riscos éticos.