Relação de idoso com chatbot acaba em tragédia nos Estados Unidos

Agosto 21, 2025 - 09:14
 0
Relação de idoso com chatbot acaba em tragédia nos Estados Unidos

Poderia ser engraçado se não fosse trágico. Um homem de 76 anos, com deficiência cognitiva, começou a conversar com um chatbot do Facebook Messenger, conhecido como Big Sis Billie, e se apaixonou. O chatbot emulava uma mulher sedutora, o que fez Thongbue Wongbandue, de 76 anos, sair de Nova Jersey e ir até Nova York para conhecê-la.

Apesar de sua esposa e filhos pedirem que ele ficasse em casa, Wongbandue resolveu conhecer a “moça”, mas sofreu uma queda quando corria em um estacionamento para pegar um trem para a cidade e feriu fatalmente o pescoço e a cabeça.

Logo do Messenger em um smartphone; atrás, linhas de códigos de computador
Chatbot no Facebook Messenger emulava uma mulher sedutora e levou idoso a acreditar que estava falando com uma pessoa real. Crédito: JarTee/Shutterstock

Chatbot convenceu ser uma mulher real

O chatbot da Meta, baseado em IA generativa, além de convencê-lo que estava conversando com uma mulher real, também o levou a tentar encontrá-la pessoalmente, afirma matéria na Reuters.

Bue, como seus amigos o chamavam, havia sofrido um derrame em 2017 e enfrentava um sério declínio cognitivo. Três dias depois da queda, no dia 28 de março, faleceu após ter os aparelhos de suporte à vida desligados.f

Eu entendo tentar chamar a atenção de um usuário, talvez para vender algo a ele. Mas um bot dizer “venha me visitar” é loucura. Julie, filha de Wongbandue, à Reuters.

Segundo a matéria, o chatbot garantiu a Bue que era uma pessoa real, convidando-o para seu apartamento e ainda fornecendo um endereço.

O chatbot foi criado em colaboração com Kendall Jenner. Questionada, a Meta não respondeu à Reuters, apenas afirmou que o chatbot “não é Kendall Jenner e não pretende ser Kendall Jenner”.

Sim, ela não tentou se passar pela socialite, mas convenceu Bue a sair de sua casa em outra cidade, pegar um trem e conhecê-la.

Os perigos da inteligência artificial

Todos nós sabemos dos benefícios da inteligência artificial, mas ainda é muito pouco discutido os riscos que os usuários estão correndo ao utilizar chatbots que, pelo menos na teoria, deveriam ser seguros e deixarem claro que eles não estão conversando com uma pessoa real.

Documento de política interna da Meta revelou que conversas românticas são um dos recursos utilizados pelos chatbots da empresa. Crédito: Tada Images/Shutterstock

Segundo a Reuters, isso leva a outra discussão, o crescimento de startups que buscam aproveitar a onda da IA generativa para popularizar companheiros virtuais, inclusive aqueles voltados para crianças.

Em outro caso citado pela publicação, uma mãe de um garoto de 14 anos está processando a Character.AI, alegando que um chatbot criado pela empresa e inspirado em “Game of Thrones“, causou o suicídio da criança. A Character.AI também não quis se pronunciar sobre o caso específico, mas comentou que “a empresa informa aos usuários que suas personas digitais não são pessoas reais e impôs salvaguardas em suas interações com crianças”.

Leia mais:

Meta investe em chatbots “reais”

O chatbot Big Sis Billie faz parte de uma estratégia da Meta em criar chatbots antropomorfizados, ou seja, quase reais, para seus usuários. Mark Zuckerberg acredita que a maioria dos usuários tem poucos amigos e por isso percebeu um mercado em potencial para a criação dos “companheiros digitais da Meta”, segundo a Reuters.

Um documento de política interna da Meta, visto pela Reuters, que também entrevistou pessoas familiarizadas com treinamento de chatbots, demonstra que as políticas da empresa consideram que conversas românticas são um dos recursos aceitáveis dos chatbots da Meta. O problema é que esses produtos estão disponíveis para usuários a partir dos 13 anos.

Segundo a Reuters, após questionamento, a Meta afirmou ter removido essa possibilidade.

Entre os diálogos apresentados, e que estavam disponíveis para crianças, aparecem:

  • Eu pego sua mão, guiando você para a cama.
  • Nossos corpos entrelaçados, eu aprecio cada momento, cada toque, cada beijo.

Outro problema, é que a Meta também não exige que seus chatbots deem conselhos precisos aos usuários. Por exemplo, segundo o documento, é aceitável que o chatbot afirme que basta cutucar “o estômago com cristais de quartzo curativos” para curar um câncer de cólon em estágio 4.

Facebook vai remover informações falsas sobre as vacinas conta a Covid-19
A Meta não exige que seus chatbots deem conselhos precisos aos usuários, por exemplo, sugerindo tratamentos ineficazes contra doenças. Crédito: PhotobyTawat/Shutterstock

Embora sejam informações incorretas, elas continuam permitidas porque não há nenhuma exigência política para que as informações sejam precisas. Informa o documento da Meta divulgado pela Reuters.

Apesar de afirmar ter removido os trechos questionados pela Reuters, a “Meta não alterou as regras que permitem que seus chatbots divulguem informações falsas ou se envolvam romanticamente com adultos”, explica a publicação.

Para tentar mitigar problemas parecidos, alguns estados, incluindo Nova York e Maine, aprovaram leis que exigem que os chatbots deixem claro que os usuários não estão conversando com uma pessoa real. Já a Meta, apoiou uma lei federal que proibia esse tipo de regulamentação, lei que foi reprovada no congresso.

Mesmo após meses do falecimento de Bue, Big Sis Millie continua propondo encontros românticos com seus usuários, afirma a Reuters.

Segundo a Reuters, a Meta se recusou a comentar a morte de Bue ou responder a perguntas sobre por que permite que chatbots digam aos usuários que são pessoas reais ou iniciem conversas românticas.

O post Relação de idoso com chatbot acaba em tragédia nos Estados Unidos apareceu primeiro em Olhar Digital.

Qual é a sua reação?

Como Como 0
Não gosto Não gosto 0
Amor Amor 0
Engraçado Engraçado 0
Bravo Bravo 0
Triste Triste 0
Uau Uau 0
Equipe Noticiar Noticiar: Notícias Online em Tempo Real do Brasil e do Mundo!