Que riscos existem no uso de outras IAs e sistemas automatizados para além da IA generativa?

Para além da abordagem generativa, existem outros paradigmas e técnicas de IA, Ciência de Dados e Estatística que não produzem novo conteúdo, mas analisam, classificam ou predizem com base em dados existentes. Incluem-se abordagens simbólicas (e.g. baseadas em regras e ontologias), estatísticas e de aprendizagem automática, incluindo a profunda, utilizadas em modelos de análise preditiva, reconhecimento de padrões, classificação automática ou apoio à decisão. Estes sistemas são frequentemente aplicados em contextos de análise de dados comportamentais, sociais ou biomédicos, na identificação de tendências ou modelação de fenómenos complexos.

Em investigação científica, o impacto sobre os participantes pode ser menos direto, uma vez que estes sistemas são, tipicamente, utilizados para fins exploratórios ou de validação experimental, sem efeitos imediatos sobre pessoas identificáveis. Mas não se pode assumir a ausência de risco: o uso destas tecnologias está normalmente associado a outros fatores críticos de risco já mencionados — a definição de perfis e as decisões automatizadas por algoritmos, ou mesmo o controle sistemático. Sempre que forem usados algoritmos para criar perfis individuais ou suportar decisões automatizadas com impacto sobre pessoas, o risco do tratamento deve ser considerado igualmente no âmbito desses nós, assegurando transparência, possibilidade de contestação e intervenção humana significativa nos processos de análise e decisão.

Acresce que outros riscos podem emergir, por exemplo, a reidentificação de dados anonimizados ou pseudonimizados, a propagação de enviesamentos ocultos nos conjuntos de dados ou a interpretação incorreta de resultados automatizados que possam vir a fundamentar decisões futuras. Mesmo em ambiente experimental, deve avaliar-se o potencial de impacto a médio prazo, sobretudo quando os resultados possam ser reutilizados ou transferidos para aplicações práticas.