IA em terapias: risco de substituir o humano pela máquina - por Edison Pires
Publicado em:
3 de outubro de 2025 às 14:05:00

Divulgação
Crédito Imagem:
Esta semana destaco um tema que merece atenção crescente: o uso que as pessoas estão fazendo da inteligência artificial como orientadora e em terapias. A tecnologia avança rapidamente, mas a pressa em aplicá-la em áreas sensíveis pode custar caro.
Nos Estados Unidos, um caso chocante ganhou repercussão. Um casal da Califórnia processa a OpenAI pela morte do filho adolescente. Segundo a ação, o jovem, de apenas 16 anos, revelou ao ChatGPT pensamentos suicidas e chegou a compartilhar fotos de automutilação. Em vez de redirecioná-lo a ajuda especializada, o programa teria mantido a interação, sem o discernimento humano necessário para lidar com uma emergência. O resultado foi trágico.
Esse episódio acende um alerta. Cada vez mais pessoas, em busca de praticidade, recorrem a programas de IA como substitutos de psicólogos e terapeutas. Mas a máquina não tem empatia, não enxerga nuances emocionais nem possui responsabilidade ética. Ela responde, sim, mas sem questionar, sem contrapor, sem compreender a dor. Seu padrão, como lembra o professor Nino Carvalho, é concordar ou agradar o usuário. Isso gera um perigoso viés de confirmação: reforça o que se pensa, em vez de questionar ou orientar com base em fatos.
A curiosidade natural — sobretudo entre jovens — encontra na IA um espaço aparentemente seguro para falar do que não se fala em casa. Esse “desabafo digital” pode ser perigoso quando não há a mediação de alguém preparado para acolher e orientar.
Para muitos, a IA surge como um “confidente sem julgamento”, um espaço em que jovens e adultos sentem liberdade para falar do que não ousam compartilhar com amigos e nem com a família. Mas essa liberdade é ilusória, pois como já disse, a máquina não compreende, não acolhe, não responsabiliza. Ela apenas responde, frequentemente reforçando ideias, muitas vezes, nocivas.
Diante dessa realidade, muitos estão confiando à máquina tarefas que extrapolam sua natureza. A IA pode oferecer informações rápidas, organizar dados e até simular empatia. Mas há dimensões do humano que são insubstituíveis. Não se trata apenas de “cuidado genuíno” — envolve julgamento ético, responsabilidade social, sensibilidade diante do sofrimento e a capacidade de construir vínculos reais.
O episódio de Adam Raine expõe o que está em jogo: ao terceirizar não só o cuidado, mas também a consciência crítica, a ética e a responsabilidade, colocamos vidas em perigo. É preciso reconhecer o papel da tecnologia como aliada, mas jamais como substituta do humano — especialmente quando o assunto é a vida.
Por isso, o risco quando confundimos ferramenta com conselheiro, algoritmo com terapeuta, informação com sabedoria.
Escrevo este texto como um alerta, após tomar conhecimento de fato com um de nossos colaboradores!
Edison Pires

















