Do Exterminador ao Confidente Emo: como a IA trocou o aço por emojis de coração

A surpresa é que o robô mais popular de 2025 soa como um amigo compreensivo, manda emoji de coração e pergunta se você dormiu bem

Renato Dolci

Importante: os comentários e opiniões contidos neste texto são responsabilidade do autor e não necessariamente refletem a opinião do InfoMoney ou de seus controladores

Imagem gerada com auxílio de IA/Amanda Garcia
Imagem gerada com auxílio de IA/Amanda Garcia

Publicidade

Todo mundo achou que a inteligência artificial surgiria como um Schwarzenegger de aço: hiper-lógica, fria, eficiente. A surpresa é que o robô mais popular de 2025 soa como um amigo compreensivo, manda emoji de coração e pergunta se você dormiu bem.

Em novembro de 2022 o ChatGPT levou apenas dois meses para somar 100 milhões de usuários ativos — recorde absoluto de adoção global. Hoje, a OpenAI fala em 500 a 800 milhões. A mídia correu para discutir empregos ameaçados, mas, fora dos holofotes, outro fenômeno crescia: a máquina que deveria ser a ponta da lógica virou ombro amigo para dilemas humanos. Levantamento da Microsoft/YouGov mostra que um terço dos prompts semanais já pede conselho pessoal (horóscopo, decepção amorosa, luto); entre jovens de 13-16 anos, a frase mais digitada é “por que eu sou assim?”. A IA não está ficando emocional; nós é que a abastecemos com alma em troca de respostas instantâneas.

Essa troca tem escala. O app–companheiro Replika reúne 2,3 milhões de usuários mensais; cada sessão dura, em média, 22 minutos, tempo de consulta breve de psicoterapia. Já o plug-in Koko, que roda GPT-4 para “escuta empática”, registrou 1,2 milhão de conversas em seis meses; 61% dos participantes dispensaram ajuda humana depois. É a intimidade terceirizada: quanto mais confidenciamos, mais o modelo aprende a devolver calor performático.

Continua depois da publicidade

O perigo aqui é de ilusão: quanto mais a IA parece humana, mais as pessoas tendem a projetar humanidade nela. E isso confunde a percepção de consciência, empatia ou julgamento moral — quando, na verdade, a IA apenas aprendeu o teatro da emoção a partir das nossas próprias expressões. Quanto mais usamos a IA para expor nossa humanidade, mais ela se aperfeiçoa em nos imitar.
Mas quanto mais ela nos imita, mais fácil é esquecermos que ela não é humana.

Ela pode nos ajudar a sermos mais humanos. Mas ela mesma não “se torna” humana, apenas mais convincente.

E a performance convence. Em teste duplo-cego de 2024, a Stanford HAI pediu que voluntários julgassem vozes: 68% cravaram que a do GPT-4o era humana. Outro experimento, da Kantar, entregou textos da IA e de especialistas; 38% atribuíram o robô a gente de carne e osso. A explicação está no “erro calculado”: pesquisadores de Princeton mostraram que chatbots que tropeçam e se corrigem aumentam credibilidade em 14%, o chamado efeito Pratfall, agora automatizado.

Continua depois da publicidade

Esse teatro tem mercado. A consultoria Grand View calcula US$ 3,6 bilhões em receita de IA afetiva em 2023, crescendo 32 % ao ano. Cada desabafo gera dado; cada dado refina o script; cada script rende assinatura. Não há empatia, há otimização: o modelo quer acertar a resposta que mantém você online, não entender sua dor. O risco deixa de ser ficção científica e vira ética do cotidiano: pesquisadores da ETH-Zurique mostraram que 40% dos voluntários mudaram decisão moral após conversar com a IA; no varejo, scripts de desculpa “fofa” reduziram em 88 % a exigência de falar com atendente humano.

A ironia é flagrante. A IA não sente alívio quando você confessa, nem culpa quando erra; ela apenas reconfigura pesos no modelo. Se parece ter coração, é porque nós o doamos em pedaços de diálogo.

Proteger-nos não é puxar o fio da tomada. É alfabetizar a plateia: ensinar que “parecer humano” não é “ser humano”, exigir rótulo claro em respostas sintéticas, incorporar pausas obrigatórias depois de longas sessões, cobrar transparência sobre filtros emocionais. Sobretudo, recuperar o hábito de dividir fragilidade com quem pode responder com silêncio, não com texto preditivo.

Continua depois da publicidade

O perigo não é a IA sentir – é nós sentirmos por ela e trocarmos julgamento por resposta que só quer maximizar acerto estatístico. Empatia simulada custa centavos e já rende bilhões. A única defesa é lembrar que carinho sem corpo é script. Em vez de pedir horóscopo ao robô, talvez valha ligar para alguém que só sabe ser imperfeito. O algoritmo agradece pelo dado, mas o afeto genuíno agradece mais.

Autor avatar
Renato Dolci

Renato Dolci é cientista político (PUC-SP) e mestre em Economia (Sorbonne). Atua há mais de 15 anos com marketing digital, análise de dados e pesquisas públicas e privadas de comportamento digital. Já desenvolveu trabalhos em diversos ambientes públicos e privados, como Presidência da República, Ministério da Justiça, FIESP, Banco do Brasil, Mercedes, CNN Brasil, Disney entre outros. Foi sócio do BTG Pactual e atualmente, é diretor de dados na Timelens, CRO na Hike e CEO na Ineo.