CFP alerta riscos na proposta de uso de inteligência artificial para saúde mental no SUS

CFP alerta riscos na proposta de uso de inteligência artificial para saúde mental no SUS

Tempo de leitura: 3 minutos

Introdução
O Conselho Federal de Psicologia (CFP) emitiu um nota de posicionamento sobre o programa “e‑Saúde Mental no SUS”, anunciado pelo governo federal. A iniciativa visa usar uma plataforma digital com inteligência artificial (IA) para diagnóstico e suporte no tratamento da saúde mental em atenção primária. Porém, o CFP destaca que esse tipo de proposta demanda muito mais do que tecnologia: exige regulação, ética, participação social e respeito aos profissionais que atuam na saúde mental. A seguir, os principais pontos levantados, desafios e recomendações.

Pontos de atenção levantados pelo CFP

  • Papel insubstituível dos psicólogos
    O CFP afirma que funções como aliança terapêutica, manejo de crises e avaliação de riscos não podem ser delegadas a algoritmos. Essas atividades envolvem aspectos humanos profundos, que dependem de empatia, presença e julgamento clínico.

  • Limites da IA diante do sofrimento psíquico
    A nota cita que dimensões sociais, históricas e culturais do sofrimento mental não são plenamente consideradas por sistemas automatizados. Há risco de ignorar o contexto individual, o que pode agravar o problema em vez de resolvê-lo.

  • Ética, privacidade e segurança jurídica
    O CFP enfatiza que qualquer uso dessa tecnologia deve respeitar sigilo profissional, direitos dos usuários, além de estar amparado por leis e regulamentos. Segundo o CFP, softwares usados para saúde mental precisam ter aprovação prévia da Anvisa, conforme a RDC 657/2022.

  • Experiências internacionais
    Países como Itália, Austrália e Reino Unido enfrentaram restrições ou suspensões no uso de IA na saúde, seja por falhas, riscos à privacidade ou problemas éticos. O exemplo internacional serve de alerta.

  • Fortalecimento do SUS via investimento humano
    Em vez de adotar tecnologias como solução paliativa, o CFP defende ampliação de equipes de saúde mental (psicólogos, psiquiatras, assistentes sociais etc.), com formação adequada e participação da comunidade.

Desafios e recomendações para uma implantação responsável

Desafio Recomendação
Regulação insuficiente de IA na saúde mental Aprovação de softwares pela Anvisa; desenvolvimento de marcos legais específicos; comitês de ética revisando tecnologia e impacto.
Exclusão da participação social Incluir profissionais de psicologia, usuários do sistema de saúde, pesquisadores, sociedade civil nos processos de decisão.
Risco de sobrecarga para profissionais Clarificar papéis: IA como apoio, não substituição; assegurar condições de trabalho, treinamento e supervisão.
Falta de sensibilidade cultural e local Adaptação de soluções tecnológicas às realidades locais (linguagem, cultura, redes de apoio); evitar modelos genéricos que não levem em conta diversidade.

Conclusão

A proposta de usar inteligência artificial para apoiar a saúde mental no SUS pode trazer benefícios, como maior alcance de atendimento e otimização de recursos. No entanto, exige muito mais do que software bem-programado: requer ética, regulação, participação social robusta e valorização dos profissionais de psicologia. O CFP deixa claro que tecnologia só é realmente útil se estiver aliada a políticas que respeitem o ser humano. Antes de implementar, é preciso garantir que o cuidado seja seguro, humano e eficiente.

Que o debate público, técnico e político sobre esse tema seja ampliado — para que qualquer inovação na saúde mental realmente atenda aos direitos, necessidades e dignidade das pessoas.

Leia: Como Justificar a Ausência de Voto nas Eleições do CFP em 2025