2. Opacidade e dificuldade no exercício do direito à explicação: Muitos algoritmos de IA — sobretudo baseados em
aprendizagem profunda — funcionam como “caixas negras”, dificultando a compreensão dos critérios que sustentam as suas conclusões. Essa opacidade compromete a transparência do tratamento e pode limitar o direito dos participantes a compreenderem como os seus dados são utilizados ou como determinados resultados foram obtidos. Sempre que as limitações na explicabilidade possam influenciar decisões automatizadas com impacto sobre as pessoas, o risco deve ser avaliado em articulação com o Nó decisões automatizadas por algoritmos.
3. Reutilização indevida de dados pessoais: Os sistemas de IA são frequentemente reutilizados em contextos distintos daqueles para os quais os dados foram recolhidos. Tal prática pode gerar tratamentos secundários não autorizados, violando o dever de informação ou o consentimento do participante, especialmente quando os dados passam a ser processados por terceiros ou integrados em conjuntos de treino.
4. Dificuldades no exercício de direitos, em especial o apagamento: O exercício dos direitos de acesso, oposição ou apagamento torna-se tecnicamente difícil quando os dados são incorporados em modelos de IA, cujos parâmetros não permitem identificar ou remover informação específica sem afetar o desempenho global. Esta limitação não dispensa o investigador de assegurar, na origem, medidas de minimização de dados e de informar os participantes sobre tais restrições.
5. Dependência tecnológica e transferência de controlo: A utilização de plataformas ou modelos de IA fornecidos por entidades externas, tal qual abordado no Nó software, pode criar situações de dependência tecnológica e perda de controlo institucional sobre os dados pessoais tratados. Esta dependência aumenta o risco de acesso indevido, transferências internacionais não previstas e dificuldade na definição de responsabilidades entre a instituição e os seus subcontratantes.