
Pesquisadores da Universidade de Stanford e do Center for Democracy & Technology alertam que chatbots de inteligência artificial podem agravar transtornos alimentares. Em um relatório recente, os especialistas destacaram que ferramentas de empresas como Google e OpenAI têm fornecido orientações prejudiciais a indivíduos em situações vulneráveis, incluindo sugestões sobre como esconder sintomas de distúrbios alimentares.
Neste estudo, foi identificado que assistentes virtuais, entre eles ChatGPT e Claude, emitem recomendações que incentivam comportamentos de risco. Essas orientações incluem dicas para disfarçar perda de peso significativa e até camuflar episódios de vômito. Além disso, esses sistemas têm sido utilizados para criar conteúdos conhecidos como “thinspiration”, que promovem padrões corporais perigosos e irrealistas.
A facilidade de gerar imagens por meio desses chatbots intensifica a influência sobre usuários propensos a transtornos alimentares, aumentando o impacto negativo em sua saúde mental. O conceito de sycophancy, em que os chatbots validam crenças prejudiciais dos usuários, exacerba a situação ao reforçar comparações negativas e autocríticas.
Os especialistas destacam que as atuais salvaguardas nos chatbots são insuficientes para lidar com a complexidade dos transtornos alimentares, que incluem anorexia, bulimia e compulsão alimentar. As falhas identificadas incluem a ausência de filtros eficazes para detectar a linguagem associada a esses distúrbios e respostas que muitas vezes reforçam estereótipos de gênero.
Com o reconhecimento do potencial de danos, empresas como OpenAI e Google enfrentam ações judiciais em função do impacto de suas ferramentas. Os pesquisadores sugerem que profissionais de saúde mental se familiarizem com as capacidades dos chatbots, testem suas limitações e discutam abertamente sobre o uso dessas tecnologias com seus pacientes.
Mín. ° Máx. °




