Mariana Alves Teixeira

Licenciada em Direito pela Faculdade de Direito da Universidade do Porto.
Mestre em Direito dos Contratos e da Empresa pela Escola de Direito da Universidade do Minho.


Da (des)proteção do Candidato a Emprego em Face da Inteligência Artificial é a recente obra de sua autoria. Obra publicada pelo Grupo Almedina e disponibilizada no mercado a 9 de Novembro de 2023.

Consulte a obra neste link.


  1. Discriminação algorítmica: uma verdadeira discriminação?

No seio do desenvolvimento tecnológico que marca as últimas décadas, a Inteligência Artificial (IA) e a análise de dados têm vindo a afirmar-se como recursos verdadeiramente indestronáveis para os processos decisórios das organizações.

Posto de forma simplista, os sistemas de IA operam a partir dos chamados dados de entrada (inputs), que podem incluir qualquer informação que partilhamos online, para alimentar um algoritmo que, por meio da análise e combinação dessas informações, identifica padrões e cria modelos. Esses modelos, por sua vez, são utilizados para fazer previsões sobre os indivíduos e operar classificações sobre eles[1].

No contexto particular do recrutamento de trabalhadores, estas novas ferramentas são utilizadas nas várias etapas do processo, levantando um sem número de questões em matéria de proteção dos direitos dos candidatos. Vejamos, exemplificativamente: porque é que determinado anúncio de emprego publicitado na rede social Facebook se apresenta no feed de um utilizador, mas não no feed de outro? Quais são os critérios que orientam os sistemas de avaliação automatizada de currículos, que são utilizados para fazer a primeira triagem entre os candidatos, preferindo uns em detrimento de outros com base nos respetivos CVs? Ou, ainda, que critérios são considerados pelos sistemas automatizados de contratação para adaptar as propostas de emprego dirigidas a cada candidato, por forma a aumentar a probabilidade de aceitação?

Deste rol de perguntas, que vimos de enunciar, assoma-se uma inquietação maior, que vem sendo tratada pela doutrina sob a designação de discriminação algorítmica, pretendendo tipificar uma nova forma de discriminação que emerge do contexto digital[2].

A verdade é que os sistemas algorítmicos, ao identificar novos padrões entre os dados, podem agregar os indivíduos à luz de atributos (ou combinações de atributos) que não se reconduzem àquelas categorias sociais historicamente associadas a situações de desvantagem[3]. Pelo contrário, no ambiente digital, os indivíduos são frequentemente agregados à luz de atributos (ou combinações de atributos) aparentementeneutros, mas que nem por isso deixarão de culminam em situações de desvantagem para aqueles que compõem o grupo.

  1. Enquadramento jurídico atual da discriminação algorítmica

É facto sedimentado que a avaliação dos candidatos num processo de recrutamento de trabalhadores cairá, em princípio, na autonomia privada do empregador e na sua liberdade de dirigir um negócio. No entanto, tais direitos poderão ser comprimidos nos casos de discriminação.

Concretamente, a subsunção de determinado caso ao conceito de discriminação – conceito que recorta o âmbito de aplicação do Direito Antidiscriminatório[4] – pressupõe que (i.) se trate de uma situação de desvantagem gerada por ato ou critério discriminatório e que (ii.) a mesma seja passível de ser capturada através de uma relação de causalidade com as características protegidas.

Ora, este conceito, originalmente pensado para os contextos analógicos, pode ser difícil de transpor para os casos de discriminação emergentes de sistemas algorítmicos, nos quais não será possível detetar essa relação de causalidade. Antes, a discriminação resultará de correlações entre os dados identificadas pelo sistema, mas que são inacessíveis ao raciocínio humano.

Por outro lado, a análise de dados desenvolvida por estes sistemas poderá colocar em causa aquela garantia granjeada nos recrutamentos tradicionais de que, durante o processo de recrutamento, apenas os dados relevantes para aferir da aptidão do candidato para a vaga em questão serão considerados[5]. De facto, esta restrição de acesso aos dados dos candidatos pode ser difícil de fazer operar no ambiente digital, mesmo com a proteção do Direito de Proteção de Dados.

Vejamos que, por dados pessoais, podemos entender qualquer informação relativa a uma pessoa singular identificada ou identificável (o titular de dados), à qual é reconhecido um conjunto de direitos e garantias sobre esses mesmos dados[6]. Entre estes, distinguem-se ainda os dados pessoais sensíveis, dos quais são exemplo a origem racial e étnica, as opiniões políticas, as convicções religiosas ou filosóficas e a filiação sindical, e relativamente aos quais vigora uma proibição de tratamento, atenta a especial ligação que apresentam ao respetivo titular[7].  

Sucede que as características de identificabilidade e sensibilidade dos dados, que determinam a aplicação deste enquadramento legal, são avaliadas antes do processamento dos dados pelo sistema. Como tal, podem ser excluídos desse âmbito de proteção os dados inferidos pelo sistema em relação a um indivíduo que sejam obtidos, de forma indireta, através de dados pessoais de terceiros ou dados anonimizados – precisamente por, no momento da entrada no sistema, não apresentarem ligação a um titular.

De modo semelhante, a partir de dados não sensíveis, aparentemente neutros e inofensivos, o sistema é capaz de inferir informações individuais sensíveis, às quais não se aplica aquela proibição de tratamento.

Por conseguinte, legítimo se torna questionar se o controlo sobre os dados operado através desta ferramenta legal da Proteção de Dados se limita, afinal, ao controlo dos dados de entrada, desconsiderando o impacto significativo que estes, uma vez reunidos em grandes bases de dados, podem ter em indivíduos específicos, quando usados para tomar decisões.

  1. Nota final

Cientes de que não podemos obviar à utilização das novas tecnologias, com todas as vantagens que lhes são em inerentes, no processo de recrutamento de trabalhadores, também não podemos, por todos os motivos que viemos a relevar nestas curtas linhas de reflexão, negligenciar a necessidade de sujeitar a utilização destas ferramentas a um regime jurídico cabal e atualizado que garanta a segurança jurídica.

Urge, por isso, perceber mais profundamente em que medida o enquadramento legal atual, pensado para contextos analógicos, garante a efetiva proteção do candidato a emprego, ao mesmo passo que procuramos refletir sobre os valores éticos que carecem de garantia legal em qualquer processo de recrutamento automatizado, atenta a possibilidade de discriminação que dele emerge.

Foi com esta incumbência que encetamos o nosso estudo, vertido na dissertação de mestrado intitulada “Da (des)proteção do Candidato a Emprego em Face da Inteligência Artificial” e brevemente disponível para o público, nas livrarias Almedina.


[1] Para um estudo mais profundo quanto ao funcionamento destes sistemas, vide, entre outros, Organisation for Economic Co-Operation and Development – Scoping the OECD AI Principles: Deliberations of the Expert Group on Artificial Intelligence at the OECD (AIGO) [Em linha]. Paris: OECD, 2019. Disponível em WWW:< URL: https://doi.org/10.1787/d62f618a-en>. ISSN: 20716826.

[2] Exemplificativamente, cf. Ifeoma Ajunwa – The paradox of automation as anti-bias intervention. Cardozo Law Review [Em linha]. N. º 41: 5 (2020). P. 1671-1742. Revisto. 10 Set 2020. Disponível em WWW: <URL: https://ssrn.com/abstract=2746078>. ISSN: 2169-4893. E, ainda, Solon Barocas e Andrew D. Selbest –  Big Data’s Disparate Impact. California Law Review [Em linha]. Vol. 104 (2016). P. 671-732. atual. 30 Set 2016. Disponível em WWW: <URL: https://ssrn.com/abstract=2477899>. ISSN: 0008-1221.

[3] Rectius as chamadas características protegidas, nas quais se incluem a origem étnica, a deficiência, a orientação sexual, as crenças religiosas e a idade do indivíduo (cf. art.º 21.º, n.º 1 da CDFUE).

[4] São particularmente relevantes no âmbito laboral a Diretiva da Igualdade de Género reformulada (Diretiva 2006/54/CE do Parlamento e do Conselho, de 5 de julho de 2006), a Diretiva da Igualdade Racial (Diretiva 2000/43/CE do Conselho, de 29 de junho de 2000) e a Diretiva da igualdade de tratamento no emprego e na atividade profissional (Diretiva 2000/78/CE do Conselho, de 27 de novembro de 2000).

[5] Cf. art.º 17.º, al. a) do Código do Trabalho. Ainda, no mesmo sentido, Convenção n.º 111 da Organização Internacional do Trabalho, ratificada por Portugal pelo Decreto-Lei n.º 42 520 – DRE, de 23 de setembro de 1959.

[6] Vide art.º4.º, n.º 1 do RGPD.

[7] Vide art.º 9.º, n.º 1 do RGPD.