Mesmo com dados pseudonimizados, a utilização de modelos de linguagem de grande escala (LLMs), como o ChatGPT, em projetos de investigação qualitativa pode implicar riscos elevados para a confidencialidade e segurança dos dados pessoais, sobretudo quando são tratados conteúdos textuais que contêm informações sensíveis. O envio de transcrições ou dados para plataformas externas representa um tratamento fora do controlo institucional, com potenciais riscos de reutilização indevida, violação de confidencialidade ou impossibilidade de eliminação dos dados.