Tempo de leitura: 3 minutos
Introdução
O Conselho Federal de Psicologia (CFP) emitiu um nota de posicionamento sobre o programa “e‑Saúde Mental no SUS”, anunciado pelo governo federal. A iniciativa visa usar uma plataforma digital com inteligência artificial (IA) para diagnóstico e suporte no tratamento da saúde mental em atenção primária. Porém, o CFP destaca que esse tipo de proposta demanda muito mais do que tecnologia: exige regulação, ética, participação social e respeito aos profissionais que atuam na saúde mental. A seguir, os principais pontos levantados, desafios e recomendações.
Pontos de atenção levantados pelo CFP
-
Papel insubstituível dos psicólogos
O CFP afirma que funções como aliança terapêutica, manejo de crises e avaliação de riscos não podem ser delegadas a algoritmos. Essas atividades envolvem aspectos humanos profundos, que dependem de empatia, presença e julgamento clínico. -
Limites da IA diante do sofrimento psíquico
A nota cita que dimensões sociais, históricas e culturais do sofrimento mental não são plenamente consideradas por sistemas automatizados. Há risco de ignorar o contexto individual, o que pode agravar o problema em vez de resolvê-lo. -
Ética, privacidade e segurança jurídica
O CFP enfatiza que qualquer uso dessa tecnologia deve respeitar sigilo profissional, direitos dos usuários, além de estar amparado por leis e regulamentos. Segundo o CFP, softwares usados para saúde mental precisam ter aprovação prévia da Anvisa, conforme a RDC 657/2022. -
Experiências internacionais
Países como Itália, Austrália e Reino Unido enfrentaram restrições ou suspensões no uso de IA na saúde, seja por falhas, riscos à privacidade ou problemas éticos. O exemplo internacional serve de alerta. -
Fortalecimento do SUS via investimento humano
Em vez de adotar tecnologias como solução paliativa, o CFP defende ampliação de equipes de saúde mental (psicólogos, psiquiatras, assistentes sociais etc.), com formação adequada e participação da comunidade.
Desafios e recomendações para uma implantação responsável
Desafio | Recomendação |
---|---|
Regulação insuficiente de IA na saúde mental | Aprovação de softwares pela Anvisa; desenvolvimento de marcos legais específicos; comitês de ética revisando tecnologia e impacto. |
Exclusão da participação social | Incluir profissionais de psicologia, usuários do sistema de saúde, pesquisadores, sociedade civil nos processos de decisão. |
Risco de sobrecarga para profissionais | Clarificar papéis: IA como apoio, não substituição; assegurar condições de trabalho, treinamento e supervisão. |
Falta de sensibilidade cultural e local | Adaptação de soluções tecnológicas às realidades locais (linguagem, cultura, redes de apoio); evitar modelos genéricos que não levem em conta diversidade. |
Conclusão
A proposta de usar inteligência artificial para apoiar a saúde mental no SUS pode trazer benefícios, como maior alcance de atendimento e otimização de recursos. No entanto, exige muito mais do que software bem-programado: requer ética, regulação, participação social robusta e valorização dos profissionais de psicologia. O CFP deixa claro que tecnologia só é realmente útil se estiver aliada a políticas que respeitem o ser humano. Antes de implementar, é preciso garantir que o cuidado seja seguro, humano e eficiente.
Que o debate público, técnico e político sobre esse tema seja ampliado — para que qualquer inovação na saúde mental realmente atenda aos direitos, necessidades e dignidade das pessoas.
Leia: Como Justificar a Ausência de Voto nas Eleições do CFP em 2025