Diante da onipresença das tecnologias digitais, o Conselho Federal de Psicologia (CFP) publicou a "Cartilha sobre Inteligência Artificial na Psicologia: Guia para uma prática ética e responsável". O documento não visa apenas explicar a tecnologia, mas reafirmar o papel insubstituível da mediação humana e da responsabilidade ética diante de ferramentas que, embora poderosas, carecem de consciência e discernimento.
A seguir, apresentamos os pontos cruciais deste guia, organizados por eixos temáticos de atuação.
1. A Natureza da Ferramenta e a Falácia da Neutralidade
Para utilizar a Inteligência Artificial (IA) com segurança, é preciso primeiro desmistificá-la. O CFP define IA como sistemas computacionais que simulam comportamentos inteligentes — como o reconhecimento de padrões e o processamento de linguagem — mas alerta que tais sistemas não possuem compreensão real ou ética.
Um dos maiores perigos apontados pelo documento é a crença de que a IA é "neutra" ou "objetiva". Pelo contrário, como esses modelos são treinados com dados produzidos por seres humanos, eles tendem a herdar, reproduzir e até amplificar desigualdades estruturais, como racismo, machismo e discriminação de classe.
Alucinações: As ferramentas de IA Generativa (como o ChatGPT) podem inventar informações falsas com um tom de alta confiabilidade, o que exige verificação constante por parte do profissional.
Vieses: O documento ilustra como chatbots podem validar estereótipos de gênero — minimizando o sofrimento masculino ou tratando o feminino de forma superficial — ou oferecer conselhos de "bem-estar" desconectados da realidade socioeconômica de populações vulneráveis.
2. O Imperativo Ético: Autonomia e Supervisão Humana
O eixo central das orientações é que a tecnologia deve figurar sempre como instrumento auxiliar, jamais como substituta do julgamento profissional. A autonomia do psicólogo é defendida não apenas como um direito, mas como um dever ético de responsabilidade técnica.
Os princípios que regem esse uso incluem:
Responsabilidade Final: A psicóloga ou o psicólogo responde integralmente por qualquer laudo, parecer ou intervenção realizada com o apoio de IA.
Transparência: O paciente tem o direito de saber se e como a IA está sendo utilizada no seu atendimento, devendo consentir de forma livre e informada.
Proteção de Dados: O sigilo profissional é sagrado. O uso de plataformas abertas para transcrição de sessões ou armazenamento de prontuários pode violar a LGPD e o Código de Ética se não houver garantias contratuais de confidencialidade.
3. Limites de Atuação por Área
A cartilha delineia fronteiras claras para o uso da IA em diferentes campos da Psicologia:
Clínica e Psicoterapia: É vedado o uso de robôs, avatares ou assistentes virtuais para conduzir psicoterapias de forma autônoma. A relação terapêutica exige a complexidade da interação humana.
Avaliação Psicológica: Testes podem ser corrigidos por sistemas informatizados, mas a interpretação, a integração dos dados e a produção do laudo exigem a validação do profissional. Aceitar resultados automatizados sem crítica é negligência.
Contexto Jurídico: O uso de algoritmos para prever reincidência criminal ou avaliar riscos sem a análise contextual de um psicólogo é desencorajado, pois pode ferir direitos humanos básicos através de decisões automatizadas enviesadas.
Escolar e Organizacional: Na educação, a IA não deve ser usada para segregar alunos, mas para personalizar o ensino. No trabalho, deve-se evitar que algoritmos de seleção excluam candidatos competentes baseando-se em padrões históricos discriminatórios de contratação.
4. O Paciente Digital: Acolhimento e Letramento
Uma realidade crescente é a chegada de pacientes que já utilizam chatbots para "desabafar". A orientação do CFP foge da proibição simplista. A recomendação é que o profissional acolha essa demanda e atue como um educador digital, promovendo o letramento crítico.
O psicólogo deve ajudar o paciente a refletir:
"Você se sente realmente compreendido por essa máquina? Você sabe o que é feito com os dados das suas conversas?"
O objetivo é empoderar o sujeito para que ele perceba as limitações da ferramenta. Contudo, o profissional deve ser firme em desaconselhar o uso caso a ferramenta apresente riscos claros à segurança do paciente ou esteja servindo como uma fuga para evitar o tratamento profissional adequado.
Conclusão
Em suma, a posição do Conselho Federal de Psicologia é de que a inovação tecnológica não pode atropelar a dignidade humana. A IA é uma realidade irreversível que pode auxiliar na organização de dados e na pesquisa, mas a escuta, o vínculo e a responsabilidade ética permanecem como atributos exclusivamente humanos e intransferíveis.
O profissional deve manter-se vigilante e tecnicamente preparado para que a tecnologia sirva à promoção da saúde, e não à precarização do cuidado.
