O Gabinete do Comissário de Informação (ICO) está actualmente a explorar a viabilidade de auditar sistemas de inteligência artificial (IA) do ponto de vista da protecção de dados e da privacidade. A ideia por trás disso é garantir que esses sistemas tratem dados pessoais de maneira justa, transparente e segura, aderindo aos princípios estabelecidos na Lei de Proteção de Dados de 2018 do Reino Unido (DPA 2018).
A OIC está analisando diferentes abordagens para auditar sistemas de IA. Um método potencial é usar ferramentas automatizadas para avaliar a conformidade do sistema com os regulamentos relevantes de proteção de dados e privacidade. Estas ferramentas podem analisar as operações de processamento de dados realizadas pelo sistema de IA, identificar quaisquer riscos potenciais para os dados pessoais e sugerir ações corretivas. Esta abordagem pode ser particularmente útil nos casos em que o sistema de IA é complexo e envolve grandes volumes de dados pessoais.
Outra abordagem é realizar uma auditoria manual do sistema de IA. Isto envolve um auditor humano que examina o design, a implementação e os processos operacionais do sistema para identificar riscos de proteção de dados e privacidade. As auditorias manuais costumam ser mais completas e podem revelar problemas que as ferramentas automatizadas talvez não consigam detectar. No entanto, eles também podem ser mais demorados e caros.
A ICO também considera uma combinação de métodos de auditoria automatizados e manuais, permitindo que as organizações se beneficiem dos pontos fortes de ambas as abordagens. Isto pode ser conseguido através da utilização de ferramentas automatizadas para identificar potenciais riscos de proteção de dados e privacidade, seguidas de auditorias manuais para validar e investigar mais detalhadamente esses riscos.
O trabalho da OIC sobre auditoria de sistemas de IA ainda está em seus estágios iniciais, e a abordagem final provavelmente dependerá de fatores como a complexidade do sistema de IA, o volume de dados pessoais processados e os recursos da organização. Ao desenvolver orientações e melhores práticas para auditar sistemas de IA, o ICO visa ajudar as organizações a cumprir as leis de proteção de dados e privacidade, ao mesmo tempo que promove a inovação e o uso responsável da tecnologia de IA.