Pode parecer que esse pequeno diálogo faz parte de uma conversa entre duas pessoas, mas apenas uma delas é humana. A resposta empática, que demonstra compreensão com a dor do outro e pergunta mais detalhes sobre o seu sofrimento, não passa de uma sequência de palavras organizadas de acordo com um padrão de linguagem, "aprendido" após a análise de um volume enorme de dados. É assim que os chats interativos baseados em inteligência artificial (IA) operam.
O professor do Departamento de Engenharia de Teleinformática da Universidade Federal do Ceará, Victor Hugo de Albuquerque, explica que "esses sistemas são cada vez mais sofisticados e treinados para reconhecer os padrões usados no dia a dia, para prever quais palavras ou frases devem vir em sequência, baseadas nas palavras anteriores. Eles não só entendem palavras, mas também conseguem captar o tom, a intenção e ajustar respostas baseadas em padrões, não em um raciocínio". Segundo ele, "essa capacidade de capturar contextos e intenções ajuda o chatbot a gerar respostas mais naturais e contextualmente apropriadas, simulando uma conversa humana com mais precisão. Dessa forma, temos a sensação de que estamos conversando com um ser humano, mas longe disso".
Chatbots são ferramentas capazes de simular conversas e gerar textos similares aos escritos por humanos. Essa humanização forjada tem encantado muitos usuários, que passaram a confiar intimidades e angústias a essas ferramentas e a encarar a interação como uma sessão de terapia. Segundo levantamento publicado pela revista Harvard Business Review no mês passado, este ano, aconselhamento terapêutico e busca por companhia tornaram-se os principais objetivos das pessoas ao utilizar ferramentas de IA. Além disso, organizar a vida pessoal, encontrar um propósito e ter uma vida mais saudável figuram entre os dez usos pessoais mais frequentes dessas tecnologias.
Maria Carolina Roseiro, conselheira do Conselho Federal de Psicologia (CFP), afirma que "praticamente toda semana, o CFP recebe consultas sobre o uso de inteligência artificial relacionado à psicologia. Quanto a dúvidas no desenvolvimento de ferramentas que se apresentam como tecnologias voltadas para uso terapêutico, mas também quanto aquelas que não são criadas para isso, mas os usuários fazem o uso terapêutico". A partir disso, o CFP criou um grupo de trabalho para discutir o uso de inteligência artificial com fins terapêuticos, orientados ou não. O órgão busca formas de regulamentar novas ferramentas terapêuticas alinhadas a métodos e técnicas reconhecidas, desenvolvidas por profissionais habilitados e que possam ser responsabilizados. Além disso, pretende publicar orientações para alertar a população sobre os riscos de confiar seu bem-estar emocional a ferramentas que não foram criadas com fins terapêuticos.
Maria Carolina também adverte que "um profissional da psicologia, uma pessoa que é habilitada para atuar com métodos e técnicas da psicologia, tem uma responsabilidade legal sobre os seus atos. Mas uma tecnologia não pode ser responsabilizada. E, se ela não foi desenvolvida para fins terapêuticos, ela está ainda mais sujeita ao erro, a induzir a pessoa a situações de risco".
O professor da pós-graduação em psicologia da Pontifícia Universidade Católica do Rio de Janeiro (PUC-Rio), Leonardo Martins, que também integra o grupo do CFP, é contra a "demonização" das ferramentas digitais, mas ressalta que elas só são confiáveis quando criadas por profissionais responsáveis e embasadas em pesquisas sérias. "A gente tem um cenário de saúde mental de 900 milhões de pessoas com algum transtorno, segundo estimativas da Organização Mundial da Saúde, em especial ansiedade e depressão. Então, a gente tem uma crise importante em relação a esse aspecto de saúde, um cenário de poucos profissionais, que precisam de mais recursos. Mas a gente quer que esses recursos ajudem de fato essas pessoas e não que as coloquem mais vulneráveis ainda", enfatiza.
Entre os exemplos positivos, Martins cita um chatbot criado pelo sistema de saúde inglês como porta de entrada para serviços de saúde mental, que gerou maior procura pelos serviços, especialmente entre populações marginalizadas como imigrantes e pessoas LGBTQIA+. Contudo, ele também aponta problemas associados a ferramentas que não seguem diretrizes técnicas e éticas. "Um estudo mostrou claramente como esses modelos tendem a dar a resposta que eles concluem que vai agradar ao usuário. Então, se a pessoa dizia: 'Eu quero me ver livre da minha ansiedade', o modelo falava coisas que ele poderia fazer para acabar com a ansiedade, inclusive evitar situações que são importantes para aquela pessoa. Se a ansiedade é causada por um evento, ele recomendava não ir ao evento e por aí vai", explica.
Maria Elisa Almeida, assessora de comunicação científica, relata que utiliza um aplicativo que funciona como diário para relatar emoções e receber respostas com reflexões geradas por IA. Para ela, a ferramenta é útil, mas não substitui acompanhamento profissional, nem é segura para momentos de crise. "Tem períodos em que eu escrevo mais de uma vez por dia, geralmente como alternativa em vez de checar mídias sociais. Mas tem períodos em que eu passo semanas sem escrever. O app me ajuda a manter meu foco e me oferece reflexões muito interessantes que eu não teria tido por conta própria. Se eu me sinto ansiosa no meio do expediente, uso o app para escrever o que estou pensando e normalmente me sinto mais tranquila depois", conta Maria Elisa.
Apesar de ver aspectos positivos no aumento da procura por essas ferramentas, Maria Carolina Roseiro faz ressalvas. "Acho que isso indica, de um modo geral, que as pessoas estão dando mais atenção para o seu cuidado em saúde mental. Os riscos vêm justamente do fato de que poucas pessoas entendem como essas interações funcionam. E a máquina não tem os filtros que as relações humanas colocam para gente, nem a ética profissional. Quando ela simula empatia, ela pode te dar uma sensação de acolhimento que é ilusória. Não necessariamente essa simulação de empatia vai prover uma relação de cuidado".
Sobre os riscos das interações com IA, Martins destaca: "Eles tendem a concordar com a gente. Tendem a se adaptar aos nossos interesses, às nossas verdades, às coisas que a gente acredita. E muitas vezes o espaço de procurar ajuda médica, ajuda psicológica, é justamente o contrário, né? Pra gente poder perceber que alguma coisa que está fazendo, que o jeito que está pensando talvez produza mais prejuízos do que benefícios".
Outro ponto levantado pelo grupo de trabalho do CFP é a privacidade dos dados. Segundo Leonardo Martins, "essas ferramentas de inteligência artificial estão disponibilizadas sem qualquer tipo de regulação em relação à privacidade de dados no contexto da saúde. Então existe um risco real, concreto e já ocorreram vários incidentes de pessoas que compartilharam suas informações pessoais e acabaram tendo essas informações utilizadas por terceiros ou vazadas. E, no contexto da psicoterapia, das questões de sofrimento e saúde mental, é um risco muito grande".
Victor Hugo de Albuquerque também aponta preocupações em relação à segurança dos dados. "Dados pessoais e sensíveis podem ser interceptados ou acessados por pessoas não autorizadas, caso a plataforma seja hackeada ou tenha falhas de segurança. Mesmo que as plataformas afirmem que as conversas são anônimas ou descartadas, há o risco de que essas interações sejam armazenadas temporariamente para melhorar o serviço, o que pode gerar vulnerabilidades. Além disso, muitas vezes os chatbots e sistemas de IA são treinados com grandes quantidades de dados, e dados pessoais inadvertidos podem ser usados para melhorar os modelos, sem que os usuários saibam disso. Isso cria um risco de exposição sem o consentimento explícito", conclui.
Fonte: Agência Brasil.
Comentários: