Quais os cuidados a adotar quando se utilizam redes de aprendizagem profunda ou ferramentas de IA generativa em projetos de investigação?

O uso de redes de aprendizagem profunda e de ferramentas de IA generativa (como o ChatGPT ou modelos semelhantes) em projetos de investigação exige uma atenção especial à proteção de dados e à transparência com os participantes. Devem ser asseguradas as seguintes medidas:
• Informar os participantes sobre os limites técnicos ao exercício de direitos, como acesso e apagamento dos dados pessoais, quando estes são tratados por sistemas de aprendizagem profunda;
• Quando forem usadas ferramentas externas fora do controlo institucional (como o ChatGPT, por exemplo), garantir:
     • A anonimização ou pseudonimização prévia dos dados antes de os submeter à ferramenta;
     • A preferência por soluções locais em vez de plataformas SaaS sempre que possível;
     • A avaliação da legitimidade e dos riscos do tratamento, caso a anonimização total não seja viável;
     • A configuração da ferramenta de modo a impedir a reutilização ou retenção dos dados para fins de treino, melhoria do sistema ou personalização da experiência do utilizador.