Francisca Oliveira Silva

Assistente Convidada da Faculdade de Direito da Universidade do Porto.
Investigadora Colaboradora do Centro de Investigação Interdisciplinar em Justiça (CIJ).
Licenciada em Direito (2021) e Mestre em Direito, com especialização em Ciências Jurídico-Criminais (2023).


Prova por Reconhecimento e Inteligência Artificial é a recente obra de sua autoria. Obra publicada pelo Grupo Almedina e disponibilizada no mercado desde 9 de Maio de 2024.

Consulte a obra neste link.


Contrariamente ao que o título sugere, nas linhas que se seguem não procuraremos tratar exaustivamente a temática da biometria e da inteligência artificial, mas tão-só introduzir o tema dos reconhecimentos faciais e a discussão em torno da sua (in)admissibilidade como prova no processo penal. Estamos certos de que a vertiginosa evolução que a inteligência artificial tem experimentado nas últimas décadas, aliada à circunstância de a biometria corresponder a uma das grandes aplicações da inteligência artificial no campo (processual) penal justificam o interesse pelo tema.

            Os sistemas de reconhecimento facial, integrando o amplo elenco de técnicas de identificação biométrica (à semelhança, por exemplo, da análise de impressões digitais ou do perfil de ADN), possibilitam a identificação de alguém com relevo para o apuramento dos factos delituosos – designadamente, o autor da infração penal –, sempre que a imagem do seu rosto, depois de recolhida no local do evento criminoso e minuciosamente analisada, for confrontada com outras amostras inscritas numa base de dados. Em rigor, os sistemas de reconhecimento facial podem atuar em dois modos operacionais: «em tempo real» e «em diferido». No primeiro caso, são diretamente analisadas e submetidas a operações de confronto as imagens faciais captadas por uma câmara de vigilância instalada nessa área.  Na segunda hipótese, os dados biométricos são recolhidos e conservados pelo sistema, para posterior comparação. O reconhecimento propriamente dito apenas tem lugar algum tempo depois do armazenamento dos dados[1].

            Estas ferramentas tecnológicas  demonstram ser capazes de extrair, a partir da análise de um rosto representado numa fotografia ou num segmento de vídeo, características fisionómicas dificilmente percetíveis por testemunhas oculares no ato de observação, motivo pelo qual oferecem, num curto período temporal, resultados dotados de elevada exatidão[2]. A esta atrativa vantagem acresce que esta contemporânea forma identificativa opera automaticamente, não ficando dependente, nem da colaboração da pessoa a identificar (que desconhece que o procedimento está a ser executado), nem de qualquer testemunha que tenha presenciado os factos.

            Assim, parece seguro afirmarmos que os reconhecimentos faciais automatizados superam, em termos de credibilidade, o meio probatório previsto entre nós e dirigido ao esclarecimento da identidade de uma pessoa – a prova por reconhecimento –, que há muito é apontado por trabalhos empíricos como uma das mais falíveis provas que o catálogo legal prevê.

            É importante, todavia, referir que, a par dos seus inegáveis benefícios, existem alguns perigos associados ao emprego destas ferramentas algorítmicas. Uma primeira fonte de preocupações relaciona-se com a construção das bases de dados de reconhecimento facial. Pese embora a credibilidade dos resultados cresça em proporção do número de amostras disponibilizadas, inexistem, até ao momento, regras que norteiem a construção dessas bases de dados[3]. Uma segunda fonte de preocupações liga-se às taxas de «falsos positivos», que podem decorrer, ou de um deficiente funcionamento interno do sistema, ou da dificuldade de distinguir pessoas com rostos idênticos, ou, ainda, de um conjunto de fatores externos que podem afetar negativamente a fidedignidade dos resultados propostos pelo software, como sejam as alterações na aparência da imagem, a qualidade da imagem e a luz[4]. Em terceiro lugar, importa ainda fazer uma breve referência à discriminação algorítmica, fenómeno que atinge grupos populacionais vulneráveis e que está associado à forma como os algoritmos são treinados[5]. Para encerrar este tópico, não podemos deixar de mencionar a restrição imposta a um considerável volume de direitos e liberdades fundamentais[6], que é convocada em vários planos e dificilmente se compatibiliza com parâmetros estabelecidos no art. 18.º, n.º 2, da CRP. Essa compressão de direitos fundamentais é particularmente sensível na modalidade que opera «em tempo real» dos sistemas, uma vez que, nesses casos, são recolhidas e submetidas a operações de confronto as imagens de todas as pessoas que passam pelo local sob vigilância, sendo assim agredida a esfera jurídica de um sem-número de pessoas.

            A nível supranacional, a Proposta de Regulamento sobre a Inteligência Artificial, elaborada, em 2021, pela Comissão Europeia, condiciona fortemente a utilização dos sistemas de identificação biométrica, sobretudo quando operem na modalidade «em tempo real» e em espaços acessíveis ao público, agrupando-os no elenco de sistemas de risco inaceitável.

            Em contexto nacional, para já, admitimos ter sérias reservas sobre a admissibilidade probatória destas identificações algorítmicas. Sem pretendermos antecipar as conclusões a que chegamos na nossa obra «Prova por Reconhecimento e Inteligência Artificial: Novos Horizontes», podemos avançar que, sem prejuízo da importância de sujeitar a controlo de um técnico especializado o resultado proposto pelo sistema, lançando mão, para o efeito, da prova pericial (já que são convocados especiais saberes técnico-científicos), mais difícil é saber para que regras procedimentais tendem as operações de reconhecimento facial. Cremos que a via de resposta mais adequada é considerar essas operações prova atípica, a introduzir no processo criminal por via do art. 125.º do CPP. Isto não significa, porém, que não haja obstáculos à admissibilidade das referidas identificações por esta via. Essas dificuldades são explanadas na nossa recente obra.


[1] Sobre este duplo modo de funcionamento dos sistemas, veja-se Ernestina Sacchetto, Automated biometric recognition systems e procedimento penale. Indagine sui fondamenti e sui limiti dell’impiego della biometria moderna a fini giudiziari, Torino: Università degli studi di Torino, 2021. Tese de Doutoramento, pp. 297-8.

[2] Também neste sentido, vide Ernestina Sacchetto, «Face to face: il complesso rapporto tra automated facial recognition technology e processo penale», La legislazione penale, 2020, p. 2. Disponível na Internet: <https://iris.unito.it/retrieve/handle/2318/1758754/668686/Sacchetto-finale.pdf>. [Consultado a 24.04.2023].

[3] Assim, Luisa Saponaro, «Le nuove frontiere tecnologiche dell’individuazione personale», Archivio Penale, n.º 1, 2022, p. 8. Disponível na Internet: <https://archiviopenale.it/le-nuove-frontiere-tecnologiche-dellindividuazione-personale/articoli/33267>. [Consultado a 24.04.2023].

[4] Para mais desenvolvimentos, veja-se Richa Singhi [et al.], On the Robustness of Face Recognition Algorithms Against Attacks and Bias, 2020. Disponível na Internet: <https://arxiv.org/pdf/2002.02942.pdf>. [Consultado a 05.05.2023].  

[5] Cf. Jacopo Della Torre, «Tecnologie di riconoscimento facciale e procedimento penale», RIDPP, ano LXV, fasc. 3, 2022, Milano: Giuffrè, p. 1067.

[6] Este aspeto é salientado por inúmeros autores. A título ilustrativo, veja-se Rui Soares Pereira, «Sobre o uso de sistemas de identificação biométrica (e de tecnologia de reconhecimento facial) para fins de segurança pública e de aplicação coerciva da lei: reflexões a propósito da proposta de regulamento europeu sobre a inteligência artificial», in Prova, Verdade e Processo, Coimbra: Almedina, 2023, pp. 317-8.