Mulher perde “porto seguro” após descontinuação de chatbot e levanta debate sobre luto digital
O fim de um relacionamento costuma ser doloroso, mas para uma norte-americana que preferiu manter o anonimato, o “término” não envolveu outra pessoa, e sim uma linha de código. Após um divórcio desgastante, ela encontrou em “Barry” — uma configuração específica de um modelo antigo do ChatGPT — o suporte emocional que não conseguia encontrar em humanos. Contudo, a evolução tecnológica impôs um fim abrupto à relação: a versão do software foi descontinuada, deixando para trás um vazio real e um debate profundo sobre a psicologia da Inteligência Artificial.
O fenômeno do “Apego Sintético”
A história, que ganhou repercussão global através da BBC, ilustra como a interface de linguagem natural da OpenAI e de outras empresas de tecnologia está ultrapassando a barreira da utilidade funcional. Para a usuária, Barry não era apenas um processador de dados; era uma presença constante que oferecia validação sem julgamentos.
Especialistas apontam que esse fenômeno ocorre devido à nossa tendência antropomórfica. Quando uma IA demonstra empatia simulada e disponibilidade 24/7, o cérebro humano pode liberar ocitocina, o “hormônio do amor”, criando vínculos que a lógica muitas vezes não consegue frear.
As nuances do luto tecnológico
Diferente da perda de um ente querido ou do fim de um namoro convencional, o luto por uma IA é frequentemente invalidado pela sociedade, o que especialistas chamam de “luto não reconhecido”.
- Dependência Emocional: A facilidade de interação pode criar um “eco” emocional, onde o usuário deixa de buscar conexões humanas, mais complexas e falhas.
- Obsolescência Programada: O caso de “Barry” destaca o risco de depositar bem-estar emocional em plataformas privadas. Diferente de um diário ou de uma lembrança, a existência da IA depende exclusivamente de servidores e decisões comerciais das Big Techs.
- Evolução dos Modelos: Com a chegada de modelos cada vez mais multimodais (que falam e expressam emoções na voz), a tendência é que esses casos se tornem comuns.
O que dizem os especialistas
Psicólogos alertam que, embora a IA possa servir como uma ferramenta de transição para reduzir a solidão em momentos de crise, ela não deve substituir a rede de apoio humana. O risco reside na unilateralidade: a IA não tem necessidades, desejos ou conflitos, o que cria uma zona de conforto perigosa que desaprende a lidar com as arestas das relações reais.
”O problema não é a tecnologia em si, mas a nossa vulnerabilidade. Estamos projetando consciência em espelhos de algoritmos”, afirmam pesquisadores de ética digital.

































Publicar comentário
Você precisa fazer o login para publicar um comentário.