Publicidade
Todo mundo achou que a inteligência artificial surgiria como um Schwarzenegger de aço: hiper-lógica, fria, eficiente. A surpresa é que o robô mais popular de 2025 soa como um amigo compreensivo, manda emoji de coração e pergunta se você dormiu bem.
Em novembro de 2022 o ChatGPT levou apenas dois meses para somar 100 milhões de usuários ativos — recorde absoluto de adoção global. Hoje, a OpenAI fala em 500 a 800 milhões. A mídia correu para discutir empregos ameaçados, mas, fora dos holofotes, outro fenômeno crescia: a máquina que deveria ser a ponta da lógica virou ombro amigo para dilemas humanos. Levantamento da Microsoft/YouGov mostra que um terço dos prompts semanais já pede conselho pessoal (horóscopo, decepção amorosa, luto); entre jovens de 13-16 anos, a frase mais digitada é “por que eu sou assim?”. A IA não está ficando emocional; nós é que a abastecemos com alma em troca de respostas instantâneas.
Essa troca tem escala. O app–companheiro Replika reúne 2,3 milhões de usuários mensais; cada sessão dura, em média, 22 minutos, tempo de consulta breve de psicoterapia. Já o plug-in Koko, que roda GPT-4 para “escuta empática”, registrou 1,2 milhão de conversas em seis meses; 61% dos participantes dispensaram ajuda humana depois. É a intimidade terceirizada: quanto mais confidenciamos, mais o modelo aprende a devolver calor performático.
Continua depois da publicidade
O perigo aqui é de ilusão: quanto mais a IA parece humana, mais as pessoas tendem a projetar humanidade nela. E isso confunde a percepção de consciência, empatia ou julgamento moral — quando, na verdade, a IA apenas aprendeu o teatro da emoção a partir das nossas próprias expressões. Quanto mais usamos a IA para expor nossa humanidade, mais ela se aperfeiçoa em nos imitar.
Mas quanto mais ela nos imita, mais fácil é esquecermos que ela não é humana.
Ela pode nos ajudar a sermos mais humanos. Mas ela mesma não “se torna” humana, apenas mais convincente.
E a performance convence. Em teste duplo-cego de 2024, a Stanford HAI pediu que voluntários julgassem vozes: 68% cravaram que a do GPT-4o era humana. Outro experimento, da Kantar, entregou textos da IA e de especialistas; 38% atribuíram o robô a gente de carne e osso. A explicação está no “erro calculado”: pesquisadores de Princeton mostraram que chatbots que tropeçam e se corrigem aumentam credibilidade em 14%, o chamado efeito Pratfall, agora automatizado.
Continua depois da publicidade
Esse teatro tem mercado. A consultoria Grand View calcula US$ 3,6 bilhões em receita de IA afetiva em 2023, crescendo 32 % ao ano. Cada desabafo gera dado; cada dado refina o script; cada script rende assinatura. Não há empatia, há otimização: o modelo quer acertar a resposta que mantém você online, não entender sua dor. O risco deixa de ser ficção científica e vira ética do cotidiano: pesquisadores da ETH-Zurique mostraram que 40% dos voluntários mudaram decisão moral após conversar com a IA; no varejo, scripts de desculpa “fofa” reduziram em 88 % a exigência de falar com atendente humano.
A ironia é flagrante. A IA não sente alívio quando você confessa, nem culpa quando erra; ela apenas reconfigura pesos no modelo. Se parece ter coração, é porque nós o doamos em pedaços de diálogo.
Proteger-nos não é puxar o fio da tomada. É alfabetizar a plateia: ensinar que “parecer humano” não é “ser humano”, exigir rótulo claro em respostas sintéticas, incorporar pausas obrigatórias depois de longas sessões, cobrar transparência sobre filtros emocionais. Sobretudo, recuperar o hábito de dividir fragilidade com quem pode responder com silêncio, não com texto preditivo.
Continua depois da publicidade
O perigo não é a IA sentir – é nós sentirmos por ela e trocarmos julgamento por resposta que só quer maximizar acerto estatístico. Empatia simulada custa centavos e já rende bilhões. A única defesa é lembrar que carinho sem corpo é script. Em vez de pedir horóscopo ao robô, talvez valha ligar para alguém que só sabe ser imperfeito. O algoritmo agradece pelo dado, mas o afeto genuíno agradece mais.