Manchete

Paraibanos se arriscam a testar IA para psicoterapia. Dá certo isso?

Nos dias atuais, quase todo mundo já conversou com um robô, seja para marcar uma consulta médica ou resolver um problema com a concessionária de energia, por exemplo. A inteligência artificial (IA) está cada vez mais presente na vida das pessoas e, se antes ela estava mais restrita aos escritórios, auxiliando no trabalho, agora já é usada para propósitos pessoais.

Uma das apropriações desses sistemas que tem se tornado cada vez mais recorrente está relacionada com o desejo de autoanálise, no intuito de pedir conselhos psicoterapêuticos, como apontou a psicanalista e professora aposentada da Universidade Federal da Paraíba, Jaqueline Brito.

“Já ouvi vários relatos de pessoas tentando fazer terapia, aconselhar-se ou discutir problemas com a inteligência artificial. A maioria dá uma resposta positiva com relação a isso, dizem que é como conversar com uma pessoa. Inclusive pacientes que fazem psicanálise comigo comentaram sobre ter consultado a IA em algum momento da vida, buscando resolver algum problema”, disse.

A especialista, no entanto, ressaltou que é importante não confundir o processo de psicoterapia com o de aconselhamento — este, geralmente, é o que a IA oferece.

“A psicoterapia é diferente de um aconselhamento ou de um direcionamento de vida. O aconselhamento envolve menos riscos, pois cabe à própria pessoa decidir se seguirá ou não a orientação recebida. Já a psicoterapia é um processo muito mais complexo e profundo”, explicou.

Jaqueline acredita não ser possível fazer psicoterapia com a máquina, mas isso não quer dizer que ela não tenha outras formas de utilização. “Se o objetivo do sujeito for ser escutado, conversar, discutir, diminuir a sua solidão, ele precisa estar consciente de que aquilo é uma máquina e que não vai resolver os problemas de falta e de vazio com relação ao humano. Costumo, portanto, trazer essa questão para quem está utilizando a IA”.

Parceiro de pensamento

O analista de sistemas Iandê Almeida começou recentemente a usar o ChatGPT para aconselhamento profissional e financeiro e está satisfeito com o resultado. Hoje, ele define a IA como um “parceiro de pensamento”, que ajuda a organizar as ideias. “Eu estava muito estressado com o trabalho, enfrentando dificuldades para lidar com a quantidade de tarefas e com muitas coisas acontecendo ao mesmo tempo. Isso acabou me travando um pouco. Comecei a conversar com o ChatGPT como uma forma de desabafar e, a cada coisa que eu dizia, o chat tendia a sugerir um plano de ação”, relembrou.

Para obter respostas mais adequadas, Iandê conta que compartilhou toda a sua trajetória profissional com a inteligência artificial — incluindo experiências anteriores e desafios enfrentados —, a fim de fornecer um contexto mais completo. “A partir disso, a máquina passou a fazer sugestões mais embasadas. Ela comentava e oferecia ideias que achei muito interessantes”, afirmou o analista de sistemas.

Por outro lado, Iandê Almeida ressaltou que o dispositivo tende a sempre concordar com o interlocutor, o que pode não ser tão útil para o propósito do aconselhamento. “Para manter você engajado, a IA tem essa tendência de elogiar, concordar com o que você diz, fazer uma certa bajulação, porém podemos instruir o programa a não fazer aquilo, orientando-o no seguinte sentido: ‘não concorde comigo só para me agradar; me diga onde eu estiver errado, o que eu poderia ter feito melhor; e se o que eu estou falando não faz sentido’”, exemplificou.

O analista de sistemas falou ainda que utilizou o recurso com o objetivo de organizar-se financeiramente. “A forma como aprendi a controlar as finanças leva muito tempo, eu precisava de uma alternativa. Contei para o chat toda a história da minha relação com dinheiro, desde o começo da vida profissional, e, baseado nisso, ele me ofereceu algumas sugestões. Consegui chegar a uma forma simples de controle financeiro, que não toma muito tempo do meu dia”, disse.

Iandê acredita que se fosse ter esse tipo de conversa com outro ser humano para buscar aconselhamento, um amigo, por exemplo, a pessoa teria que ter uma disponibilidade de tempo muito grande para ouvi-lo, algo difícil hoje em dia. “Outra alternativa seria uma mentoria de carreira, que eu precisaria pagar por isso. Não acho que a IA substitui a necessidade de contar com as pessoas, mas esse tipo de uso que desenvolvi contribui para a organização de meus próprios pensamentos”, refletiu.

Ele disse ainda que não descarta a possibilidade de usar o sistema para lidar com questões mais íntimas, mas está ciente das limitações. “Existe um risco quando se encara a inteligência artificial como substituta de um psicólogo. Isso pode ser uma ilusão, e a pessoa pode acabar seguindo um caminho que não será realmente útil, nem aquele que um terapeuta humano indicaria”, alertou Iandê, complementando que “também há a questão da privacidade, já que as informações compartilhadas podem ser utilizadas pela empresa responsável pela IA. Por isso, o ideal é não fornecer dados pessoais e, se possível, usar nomes fictícios. Vejo esse recurso como algo complementar — uma ferramenta que, em alguns casos, pode até ajudar a levar temas para serem trabalhados em terapia. Às vezes, você está em um processo terapêutico, mas não sabe por onde começar”, concluiu.

 Experimento

A professora de Comunicação Maíra Nunes decidiu fazer um experimento para testar a eficiência do ChatGPT para psicoterapia, como parte de uma pesquisa sobre o impacto da IA na produção das subjetividades. Ela contou que, para ter uma base de comparação, buscou conversar com a IA sobre questões que ela já tinha discutido anteriormente com uma terapeuta humana.

“Fiquei impactada, pois a forma como a inteligência artificial conduziu o processo apresentava semelhanças com a abordagem de uma psicanalista experiente. Nesse sentido, a IA disse coisas pertinentes. Entretanto, ainda não tenho dados suficientes para oferecer respostas sobre a pesquisa, uma vez que está em fase inicial”, afirmou.

Apesar da resposta que obteve por meio da máquina, a estudiosa defende que nada substitui a atuação do profissional da área. “O que venho me perguntando, como pesquisadora, é até que ponto o recurso pode ser utilizado de forma complementar”, acrescentou Maíra.

A professora, no entanto, demonstra preocupação com o fato de algumas pessoas recorrerem à tecnologia como substituta para a terapia tradicional, especialmente por motivos financeiros. “Em um país de extrema desigualdade, o acesso à saúde mental é uma condição de classes sociais privilegiadas, portanto a maioria expressiva da sociedade não tem condições de pagar por uma terapia. Os recursos oferecidos pela inteligência artificial são gratuitos, o que pode atrair um número significativo de pessoas. Isso representa um risco, especialmente para aqueles em situação de vulnerabilidade emocional e econômica, que podem acabar utilizando a IA como uma ferramenta fundamental para sobrevivência, algo extremamente perigoso. Que impacto isso pode trazer em um futuro próximo na vida dessas pessoas?”, questionou.

Como funciona

O professor do Centro de Informática da UFPB e coordenador do Laboratório de Aplicações em Inteligência Artificial (Aria), Yuri Malheiros, ressaltou que, embora as respostas da IA possam parecer muito humanas, elas apenas repetem informações com as quais o sistema foi alimentado.

“Esses chatbots foram treinados com uma quantidade gigantesca de textos, coletados principalmente da internet, mas também de livros e transcrições de vídeos. Provavelmente, entre esses dados, há conteúdos relacionados à terapia ou a relatos de pessoas falando sobre seus sofrimentos. Com base nisso, a inteligência artificial consegue identificar, a partir do que o usuário escreve, quais palavras ou frases se encaixam melhor para responder de forma coerente à pergunta feita”, explicou.

O professor destacou ainda que esses dispositivos não foram criados para substituir psicólogos nem o contato humano. “Eu teria muito cuidado, ele normalmente não é feito para isso. Eu não recomendo. Pode ter resultados; acredito que, para algumas pessoas, seja positivo esse tipo de relação, mas é importante ter cautela, já que o funcionamento da IA é probabilístico — ou seja, pode gerar respostas inesperadas. E, acima de tudo, é fundamental lembrar que, por mais que pareça, não estamos lidando com um ser humano”, alertou.

Yuri também destacou a preocupação com a privacidade, já que muitas empresas utilizam os dados enviados pelos usuários para aprimorar seus sistemas de inteligência artificial. “Isso varia de empresa para empresa. Muitas vezes, as informações não são divulgadas publicamente, mas costumam ser usadas internamente para melhorar o próprio chatbot. Existem algumas soluções que podem ser executadas localmente, no próprio computador, sem conexão com a internet”, explicou. Segundo o coordenador do Aria, quando não há transmissão de dados pela rede, os riscos à privacidade são significativamente menores.

 

Texto de Bárbara Wanderley para o Jornal A União deste domingo, 29/6

Foto: Yan Krukau/Pexels

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *