No plano da privacidade, que riscos existem associados ao uso da IA?

1. Viés algorítmico e discriminação: Os sistemas de IA aprendem a partir de dados históricos, podendo refletir padrões sociais, culturais ou institucionais de desigualdade. Quando esses enviesamentos não são detetados nem corrigidos, podem reproduzir ou amplificar discriminações indiretas com base em género, origem, idade, saúde ou outros fatores. Circunstâncias que podem afetar a qualidade e imparcialidade dos resultados, comprometendo a validade científica e ética do estudo.

2. Opacidade e dificuldade no exercício do direito à explicação: Muitos algoritmos de IA — sobretudo baseados em 
aprendizagem profunda — funcionam como “caixas negras”, dificultando a compreensão dos critérios que sustentam as suas conclusões. Essa opacidade compromete a transparência do tratamento e pode limitar o direito dos participantes a compreenderem como os seus dados são utilizados ou como determinados resultados foram obtidos. Sempre que as limitações na explicabilidade possam influenciar decisões automatizadas com impacto sobre as pessoas, o risco deve ser avaliado em articulação com o Nó decisões automatizadas por algoritmos.

3. Reutilização indevida de dados pessoais: Os sistemas de IA são frequentemente reutilizados em contextos distintos daqueles para os quais os dados foram recolhidos. Tal prática pode gerar tratamentos secundários não autorizados, violando o dever de informação ou o consentimento do participante, especialmente quando os dados passam a ser processados por terceiros ou integrados em conjuntos de treino.

4. Dificuldades no exercício de direitos, em especial o apagamento: O exercício dos direitos de acesso, oposição ou apagamento torna-se tecnicamente difícil quando os dados são incorporados em modelos de IA, cujos parâmetros não permitem identificar ou remover informação específica sem afetar o desempenho global. Esta limitação não dispensa o investigador de assegurar, na origem, medidas de minimização de dados e de informar os participantes sobre tais restrições.

5. Dependência tecnológica e transferência de controlo: A utilização de plataformas ou modelos de IA fornecidos por entidades externas, tal qual abordado no Nó software, pode criar situações de dependência tecnológica e perda de controlo institucional sobre os dados pessoais tratados. Esta dependência aumenta o risco de acesso indevido, transferências internacionais não previstas e dificuldade na definição de responsabilidades entre a instituição e os seus subcontratantes.