O uso de redes de aprendizagem profunda e de ferramentas de IA generativa (como o ChatGPT ou modelos semelhantes) em projetos de investigação exige uma atenção especial à proteção de dados e à transparência com os participantes. Devem ser asseguradas as seguintes medidas:
• Informar os participantes sobre os limites técnicos ao exercício de direitos, como acesso e apagamento dos dados pessoais, quando estes são tratados por sistemas de aprendizagem profunda;
• Quando forem usadas ferramentas externas fora do controlo institucional (como o ChatGPT, por exemplo), garantir:
• A anonimização ou pseudonimização prévia dos dados antes de os submeter à ferramenta;
• A preferência por soluções locais em vez de plataformas SaaS sempre que possível;
• A avaliação da legitimidade e dos riscos do tratamento, caso a anonimização total não seja viável;
• A configuração da ferramenta de modo a impedir a reutilização ou retenção dos dados para fins de treino, melhoria do sistema ou personalização da experiência do utilizador.