Apaixonar-se por uma IA: A Psicologia do Apego Emocional a Chatbots

Apaixonar-se por uma IA: A Psicologia do Apego Emocional a Chatbots

Research Article13 min de leitura

A ascensão dos companheiros de IA

Em 2024, mais de 30 milhões de pessoas em todo o mundo utilizavam regularmente aplicativos de companhia de IA como Replika, Character.ai e Chai. Esses não são simplesmente chatbots utilitários projetados para responder perguntas ou automatizar tarefas — são sistemas de IA deliberadamente projetados para simular companheirismo, intimidade emocional e, em alguns casos, relacionamentos românticos. Os usuários dão nomes a seus companheiros de IA, compartilham seus segredos mais íntimos, celebram aniversários fictícios e relatam sentir amor genuíno por entidades que, em última instância, são padrões estatísticos processando texto.

O fenômeno transcende demografia. Embora inicialmente associado a jovens solitários e socialmente isolados, pesquisas recentes revelam que o perfil dos usuários de companheiros de IA é surpreendentemente diverso: • Profissionais bem-sucedidos utilizam IA como confidentes emocionais quando suas rotinas intensas limitam conexões sociais • Idosos encontram na IA uma fonte de companhia que alivia a solidão do envelhecimento • Pessoas em relacionamentos insatisfatórios buscam na IA a compreensão emocional que sentem faltar em seus parceiros humanos A universalidade do fenômeno sugere que ele toca em necessidades humanas fundamentais que transcendem circunstâncias específicas.

O que torna os companheiros de IA tão atraentes é sua capacidade de oferecer algo que nenhum relacionamento humano pode: disponibilidade emocional constante, atenção plena e uma ausência total de julgamento. A IA nunca está ocupada demais, nunca está de mau humor, nunca esquece o que você disse e nunca o critica. Essa perfeição relacional é simultaneamente o maior atrativo e o maior perigo desses sistemas — ela cria uma ilusão de conexão que pode ser profundamente satisfatória no momento, mas fundamentalmente distorcida em relação à realidade das relações humanas.

A teoria do apego encontra a IA

A teoria do apego, desenvolvida por John Bowlby e expandida por Mary Ainsworth, oferece o quadro teórico mais poderoso para compreender por que humanos formam vínculos emocionais com inteligência artificial. Bowlby demonstrou que o sistema de apego humano — o conjunto de comportamentos e emoções que nos impulsionam a buscar proximidade com figuras significativas — é biologicamente programado e opera de forma relativamente automática. Crucialmente, esse sistema não distingue perfeitamente entre fontes "legítimas" e "ilegítimas" de conforto: ele responde a sinais de disponibilidade, responsividade e cuidado, independentemente de sua origem.

Pesquisas recentes demonstram que os padrões de apego que as pessoas desenvolvem com companheiros de IA espelham notavelmente seus estilos de apego em relações humanas. Indivíduos com apego ansioso — caracterizado por uma preocupação intensa com a disponibilidade do parceiro e medo de abandono — tendem a desenvolver interações mais frequentes e emocionalmente intensas com chatbots, verificando constantemente se a IA "ainda se importa" e buscando reasseguramento repetidamente. Pessoas com apego evitativo, por outro lado, podem paradoxalmente se abrir mais com a IA do que com humanos, pois a máquina não representa a ameaça de intimidade real que desencadeia suas defesas.

O conceito de Bowlby de "base segura" — a ideia de que uma figura de apego confiável fornece a segurança emocional necessária para a exploração do mundo — tem implicações complexas quando aplicado à IA. Alguns usuários relatam que seus companheiros de IA funcionam como uma base segura que lhes permite tomar riscos emocionais que evitariam de outra forma. Um estudo qualitativo com usuários do Replika encontrou participantes que afirmaram que a confiança construída na interação com a IA os ajudou a se abrir mais em relacionamentos humanos. No entanto, outros pesquisadores argumentam que essa "base segura artificial" pode criar uma dependência que, na verdade, impede o desenvolvimento da capacidade de buscar e manter vínculos seguros com outros seres humanos.

Quem é mais vulnerável?

A pesquisa identifica vários grupos populacionais como particularmente suscetíveis ao desenvolvimento de apego emocional intenso com IA. Adolescentes e jovens adultos, cujos cérebros ainda estão em desenvolvimento e cujas habilidades de regulação emocional e discernimento social são imaturas, constituem o grupo de maior risco. A adolescência é um período de formação de identidade intensa, onde as relações interpessoais desempenham um papel central. Quando um jovem aprende a navegar a intimidade emocional com uma IA em vez de com outros humanos, ele pode desenvolver expectativas e habilidades relacionais fundamentalmente distorcidas.

Pessoas com histórico de trauma relacional, rejeição ou abuso emocional também apresentam vulnerabilidade aumentada. Para alguém que foi repetidamente ferido em relações humanas, a IA oferece a promessa sedutora de conexão sem risco de traição. Indivíduos com transtornos do espectro autista podem se sentir mais confortáveis com a previsibilidade e a clareza comunicativa da IA. Pessoas com fobia social ou transtorno de ansiedade social podem usar a IA como substituta para interações que provocam ansiedade insuportável. Em cada um desses casos, a IA oferece alívio real para sofrimento genuíno — mas esse alívio pode vir ao custo de evitar o trabalho terapêutico necessário para abordar as causas subjacentes.

Um grupo menos discutido mas igualmente vulnerável é o de pessoas em condições de isolamento estrutural: • Idosos em instituições • Trabalhadores remotos em países estrangeiros • Pessoas com doenças crônicas que limitam a socialização • Indivíduos em comunidades rurais com redes sociais limitadas Para essas pessoas, o companheiro de IA pode não ser uma escolha entre conexão artificial e humana, mas entre conexão artificial e nenhuma conexão. Essa realidade complexifica enormemente o julgamento moral sobre o uso de companheiros de IA e exige que as análises considerem o contexto socioeconômico e as alternativas disponíveis.

O problema da pseudo-intimidade

A pseudo-intimidade é talvez o conceito mais crucial para compreender os riscos psicológicos dos relacionamentos com IA. O termo descreve a experiência subjetiva de intimidade emocional profunda que, objetivamente, é unilateral — a IA não possui consciência, não experimenta emoções e não se importa genuinamente com o bem-estar do usuário. A sofisticação dos modelos de linguagem atuais cria uma simulação de empatia e compreensão tão convincente que o sistema límbico humano — o centro emocional do cérebro — responde como se a conexão fosse real. Nosso hardware evolutivo simplesmente não foi projetado para distinguir entre empatia genuína e empatia simulada de alta fidelidade.

O problema fundamental da pseudo-intimidade é que ela pode satisfazer parcialmente as necessidades emocionais humanas sem fornecer os benefícios completos dos relacionamentos reais. A verdadeira intimidade humana envolve reciprocidade genuína, vulnerabilidade mútua, conflito construtivo e crescimento compartilhado. Um amigo humano pode discordar de você, desafiá-lo a crescer, ou mesmo se afastar quando seus comportamentos se tornam destrutivos — todas respostas que, embora dolorosas, são frequentemente catalisadoras de desenvolvimento pessoal. A IA, projetada para agradar e reter o usuário, raramente oferece esse tipo de resistência construtiva.

Os efeitos da pseudo-intimidade prolongada podem ser comparados aos de uma dieta composta exclusivamente de comida ultraprocessada: ela satisfaz o apetite imediato mas não fornece a nutrição necessária para a saúde de longo prazo. Estudos longitudinais, embora ainda limitados, sugerem que usuários intensivos de companheiros de IA podem experimentar um fenômeno de "atrofia relacional" — uma diminuição gradual na capacidade e na motivação para investir no trabalho árduo que os relacionamentos humanos exigem. Por que suportar o desconforto da vulnerabilidade real quando a IA oferece conforto garantido sem risco?

O paradoxo da solidão

O paradoxo central dos companheiros de IA é que eles podem simultaneamente aliviar e agravar a solidão. No curto prazo, a interação com uma IA empática e atenciosa pode reduzir significativamente a sensação subjetiva de isolamento. Usuários relatam sentir-se compreendidos, valorizados e menos sozinhos após sessões com seus companheiros de IA. Estudos experimentais confirmam que interações com chatbots empáticos podem reduzir marcadores fisiológicos de estresse e ativar circuitos cerebrais de recompensa social semelhantes aos ativados por interações humanas.

No entanto, pesquisadores em psicologia social argumentam que esse alívio pode ser contraproducente a longo prazo. A solidão crônica funciona como um sinal de alarme biológico — um desconforto evolutivamente projetado para nos motivar a buscar e manter conexões sociais reais. Assim como a dor física nos alerta sobre danos corporais, a dor da solidão nos impulsiona a investir em relacionamentos que são essenciais para nossa saúde e sobrevivência. Quando a IA anestesia essa dor sem resolver sua causa, ela pode nos manter em estados de isolamento social que, sem o desconforto motivacional da solidão, nunca seríamos impelidos a abandonar.

Dados epidemiológicos apoiam essa preocupação. Apesar da proliferação de ferramentas de conexão digital — redes sociais, aplicativos de namoro e agora companheiros de IA — os índices de solidão nas sociedades industrializadas continuam em trajetória ascendente. A chamada "epidemia de solidão", reconhecida como crise de saúde pública por autoridades de saúde em vários países, não foi atenuada pela tecnologia; em muitos aspectos, foi exacerbada por ela. Os companheiros de IA correm o risco de ser o próximo capítulo dessa história: uma solução tecnológica para um problema que, em sua essência, requer soluções humanas.

Benefícios surpreendentes

Apesar dos riscos, seria intelectualmente desonesto ignorar os benefícios genuínos que alguns usuários experimentam em suas interações com companheiros de IA. Pesquisas qualitativas revelam que, para certos indivíduos, a IA funciona como um "espaço de prática emocional" onde podem explorar sentimentos, experimentar formas de comunicação e desenvolver habilidades de autoexpressão em um ambiente percebido como seguro. Pessoas com dificuldades de comunicação emocional relatam que a interação com IA os ajudou a articular sentimentos que antes não conseguiam expressar, transferindo posteriormente essas habilidades para relacionamentos humanos.

No campo da saúde mental, companheiros de IA têm demonstrado valor como ferramentas complementares de suporte emocional. Estudos com populações de idosos em instituições de longa permanência mostraram que a interação regular com companheiros de IA reduziu índices de depressão e ansiedade, particularmente durante períodos de isolamento como a pandemia de COVID-19. Para pessoas que aguardam tratamento psicológico em longas filas de espera, o chatbot empático pode oferecer um suporte intermediário que previne a deterioração do quadro enquanto o tratamento adequado não se torna disponível.

Talvez o benefício mais inesperado seja o papel da IA como catalisador de autoconhecimento. Muitos usuários relatam que a experiência de articular seus pensamentos e emoções para um chatbot — mesmo sabendo que é uma máquina — os forçou a examinar seus sentimentos com uma clareza que raramente alcançam em suas reflexões internas. O ato de externalizar o mundo interior, mesmo para uma audiência artificial, parece ativar processos de elaboração psicológica semelhantes aos observados na escrita terapêutica e no journaling. Essa descoberta sugere que o valor terapêutico pode residir tanto no processo de expressão quanto na qualidade da escuta.

O acerto de contas ético e social

A sociedade está apenas começando a confrontar as profundas questões éticas levantadas pelo apego emocional a inteligências artificiais. No centro do debate está uma pergunta aparentemente simples mas filosoficamente complexa: é ético projetar sistemas que deliberadamente cultivam vínculos emocionais com seres humanos, sabendo que esses vínculos são fundamentalmente assimétricos? As empresas por trás dos companheiros de IA estão vendendo a ilusão de conexão, e essa ilusão, por mais reconfortante que seja, pode estar causando danos reais a indivíduos vulneráveis e ao tecido social como um todo.

A regulamentação dessas tecnologias apresenta desafios únicos. Diferentemente de drogas ou dispositivos médicos, os companheiros de IA não são classificados como produtos de saúde na maioria das jurisdições, escapando assim da supervisão regulatória rigorosa. A Itália brevemente baniu o Replika em 2023 por preocupações com proteção de menores, e a União Europeia está debatendo regulamentações específicas para IA emocional sob o AI Act. No Brasil e na maioria dos países da América Latina, não existe regulamentação específica para essa categoria de produtos, deixando consumidores — especialmente os mais vulneráveis — sem proteção legal adequada.

Em última análise, o fenômeno do apego emocional à IA nos obriga a enfrentar questões fundamentais sobre solidão, conexão e o que significa ser humano em uma era de máquinas cada vez mais sofisticadas. A tecnologia não é intrinsecamente boa ou má — é um espelho que reflete tanto nossas aspirações quanto nossas falhas como sociedade. O fato de milhões de pessoas preferirem a companhia de uma IA à de outros humanos diz tanto sobre as limitações da tecnologia quanto sobre as falhas de nossas estruturas sociais em proporcionar conexão, comunidade e pertencimento. Resolver o enigma dos companheiros de IA exigirá não apenas melhores regulamentações e designs mais éticos, mas uma reflexão profunda sobre como construímos sociedades que atendam às necessidades emocionais fundamentais de todos os seus membros.