
Mário Serra Pereira
Jurista
Consulte a sua obra neste link.
1. Introdução: A imperatividade de uma regulação responsável da IA
1.1. Da compreensão dos desafios à busca de soluções
O ensaio anterior delineou a natureza omnipresente da Inteligência Artificial (IA) e os seus efeitos multifacetados sobre os direitos humanos, assinalando a complexidade dos desafios que decorrem da sua integração no quotidiano. Da privacidade e da liberdade de expressão até à não discriminação e ao direito à reparação, a IA comporta riscos que podem distorcer a aplicação dos direitos fundamentais, exigindo uma compreensão aprofundada das suas capacidades e limitações. A opacidade dos sistemas, os vieses algorítmicos e as lacunas nos mecanismos de responsabilização foram identificados como obstáculos muito relevantes à salvaguarda da dignidade humana na era digital. Perante este cenário, é imperativo transitar da mera identificação dos problemas para a formulação e implementação de soluções, centradas numa Regulação responsável da IA.
1.2. A omnipresença da IA na vida profissional e administrativa
A IA não é uma tecnologia futurista, mas é já uma realidade plenamente integrada em múltiplos contextos da vida profissional e administrativa. A sua presença estende-se a ferramentas de gestão documental e análise preditiva, utilizadas por advogados para otimizar a pesquisa jurídica, e a sistemas de decisão automatizada em empresas e na administração pública. A Pesquisa das Nações Unidas sobre Governo Eletrónico (UN E-Government Survey) de 2024 [1], por exemplo, evidencia uma tendência crescente no desenvolvimento do governo digital e no uso de IA no setor público, com implicações diretas sobre os direitos humanos. O conceito de “Estado Social Digital” ilustra a crescente datificação e o uso de dados pelo setor público, com efeito sobre muitos direitos individuais. Na educação, a integração de tutores de IA em escolas para personalizar a aprendizagem suscita preocupações com vieses, desigualdades, privacidade e segurança dos dados dos alunos. Nas redes sociais, a IA é usada para moderação e recomendação de conteúdos, e para edição de fotos, com efeitos sobre a liberdade de expressão, privacidade e autoestima. Esta omnipresença da IA sublinha a urgência de estabelecer quadros de Regulação eficazes que garantam que a tecnologia serve o bem-estar humano e respeita os direitos fundamentais.
2. Auditoria e avaliação de impacto: ferramentas essenciais para a proteção dos Direitos Humanos
Para garantir que os sistemas de IA reforcem e respeitem os direitos humanos, em vez de os minar e colocar em perigo, é fundamental implementar medidas proactivas e sistemáticas. Neste contexto, o Dever de Diligência em Direitos Humanos (DDDH DDDH [2]) e a Avaliação de Impacto em Direitos Humanos (AIDH [3]) assumem um papel central.
2.1. O Dever de Diligência em Direitos Humanos (DDDH)
O Dever de Diligência em Direitos Humanos (DDDH) é um processo contínuo que os Estados e as empresas devem adotar para identificar, prevenir, mitigar e prestar contas sobre os efeitos adversos que as suas atividades possam ter nos direitos humanos. A DDDH não é um fim em si mesma, mas um meio para respeitar os direitos humanos e prevenir danos. Embora não esteja ainda plenamente codificada em instrumentos convencionais vinculativos universais, a DDDH decorre de várias fontes normativas relevantes, como os Princípios Orientadores das Nações Unidas sobre Empresas e Direitos Humanos (UNGPs), de 2011 [4], e a Diretiva da União Europeia sobre Dever de Diligência em Sustentabilidade Empresarial (CSDDD), adotada pelo Conselho em 2024 [5], cuja aplicação tem sido objeto de atrasos e revisões.
2.2. A Avaliação de Impacto em Direitos Humanos (AIDH)
A Avaliação de Impacto em Direitos Humanos (AIDH) é um instrumento metodológico e normativo que visa identificar, prever, avaliar e mitigar os efeitos potenciais ou reais que uma política, projeto, legislação, tecnologia ou atividade empresarial pode ter sobre os direitos humanos, com base nos padrões jurídicos internacionais, regionais e nacionais aplicáveis. A AIDH é uma ferramenta crucial que pode ser utilizada como parte da DDDH, especialmente quando são identificados riscos elevados.
O processo de uma AIDH inclui as seguintes fases:
- Planeamento e definição do âmbito: Determinar o que será avaliado e quais direitos humanos podem ser afetados.
- Recolha de dados: Obter informações relevantes através de diversas fontes, incluindo a participação de partes interessadas.
- Análise de impacto: Avaliar a natureza e a escala dos efeitos potenciais ou reais.
- Prevenção, mitigação e reparação de impactos: Desenvolver e implementar medidas para evitar, reduzir ou remediar os danos identificados.
- Relato e avaliação: Documentar os resultados e monitorizar a eficácia das ações tomadas.
Uma AIDH foca-se nos titulares de direitos potencialmente afetados, na participação efetiva das partes interessadas, na transparência de todo o processo, na responsabilização pelos atos praticados e na consideração dos efeitos cumulativos decorrentes da medida ou atividade em análise. A AIDH distingue-se de outras avaliações, como a Avaliação de Impacto na Proteção de Dados (APID [6]) ou a Avaliação de Impacto Ético (EtIA [7]), pelo seu foco nos detentores de direitos afetados e nos padrões de direitos humanos mais amplos.
2.3. A transição do “risco para o negócio” para o “risco para as pessoas”
Os Princípios Orientadores das Nações Unidas sobre Empresas e Direitos Humanos estabelecem uma mudança de paradigma essencial: a DDDH muda o foco dos “riscos para o negócio” (devida diligência tradicional, que se concentra em riscos legais, financeiros, comerciais ou reputacionais para a empresa) para os “riscos para as pessoas” (os potenciais efeitos adversos nos direitos humanos). Esta é uma mudança conceptual profunda, com implicações legais significativas, implicando que a responsabilidade corporativa se estende para além dos danos financeiros ou reputacionais, abrangendo o efeito direto nos seres humanos. Os juristas estão numa posição única para defender e assegurar esta mudança, zelando para que os quadros legais e as práticas corporativas deem efetiva prioridade ao bem-estar humano sobre os interesses puramente comerciais. A compreensão de que os riscos para os direitos humanos são, em última instância, também riscos para o negócio, fortalece o argumento para a integração da DDDH e AIDH nas operações empresariais. A aplicação proactiva do Dever de Diligência em Direitos Humanos e das Avaliações de Impacto em Direitos Humanos constitui, assim, uma pedra angular para garantir que os sistemas de IA são desenvolvidos e implementados de forma a priorizar o bem-estar humano e os direitos fundamentais.
3. O jurista em equipas multidisciplinares: um papel central na regulação da IA
Neste contexto de crescente integração da IA e da necessidade de uma Regulação robusta, o papel dos juristas em equipas multidisciplinares torna-se essencial.
3.1. A imperatividade da multidisciplinaridade
A complexidade dos aspetos técnicos da IA, dos dilemas éticos e dos efeitos sociais significa que nenhuma disciplina isolada pode abordar plenamente os desafios que esta tecnologia apresenta. A multidisciplinaridade não é apenas uma sugestão, mas um imperativo para a regulação eficaz da IA. Os juristas, integrados em equipas com técnicos de IA, cientistas de dados, sociólogos e filósofos, são essenciais para garantir o cumprimento dos princípios e padrões de direitos humanos. Enquanto os engenheiros e os cientistas de dados trazem a experiência técnica para o desenvolvimento da IA, e os filósofos e os sociólogos oferecem perspetivas sobre os seus efeitos sociais e morais, os juristas contribuem com a compreensão dos direitos, dos mecanismos de responsabilização e da conformidade legal. Uma regulação eficaz da IA, que salvaguarde os direitos humanos, exige esta colaboração interdisciplinar para colmatar as lacunas de conhecimento setorial e para garantir uma avaliação e mitigação abrangente dos riscos.
3.2. A aplicação dos princípios PANEL e a ABDH
Os juristas são essenciais para assegurar que as avaliações se centram nos titulares de direitos e para a aplicação dos princípios PANEL [8]:
Princípio |
Descrição |
Relevância para a IA |
Participação |
O direito dos indivíduos e grupos de participar nas decisões que os afetam. |
Envolve a consulta de representantes da sociedade civil, população local e especialistas antes da implementação de sistemas de IA e após a ocorrência de danos. Garante que as perspetivas dos detentores de direitos são consideradas no ciclo de vida da IA. |
Accountability (Responsabilização) |
A obrigação de prestar contas pelas ações e decisões, com mecanismos para correção de erros. |
A transparência é fundamental para mecanismos de responsabilização eficazes. Exige práticas de moderação transparentes, explicando conteúdos ocultados ou removidos, e processos claros para lidar com reclamações e indemnizações. |
Não Discriminação e Igualdade |
Garantir que todos os indivíduos são tratados de forma justa e que as tecnologias não perpetuam ou aumentam vieses. |
Assegurar que os sistemas de IA não perpetuam vieses ou desigualdades, especialmente em áreas como recrutamento, crédito ou atribuição de prestações sociais. Exige dados de treino diversos e auditorias de viés. |
Empoderamento |
Capacitar os indivíduos para exercerem os seus direitos e terem controlo sobre as suas vidas. |
Promover a literacia digital para que as pessoas compreendam as implicações da IA. Encorajar os indivíduos a abraçar as suas identidades únicas em vez de se conformarem a padrões sociais estreitos, especialmente no contexto de IA generativa. |
Legalidade |
A conformidade com as leis e regulamentos existentes, garantindo que as ações são baseadas em quadros legais. |
Assegurar a conformidade com diplomas legais como o RGPD e o Regulamento Europeu de IA [9], garantindo que o desenvolvimento e uso da IA têm uma base legal clara e respeitam os direitos estabelecidos. |
Tabela 1: Princípios PANEL e a sua Relevância para a IA e Direitos Humanos
Estes princípios fornecem uma estrutura orientadora para a implementação de uma Abordagem Baseada nos Direitos Humanos (ABDH) à IA.
A ABDH é uma metodologia desenvolvida no âmbito das Nações Unidas para orientar a conceção, execução e avaliação de políticas públicas, programas e projetos com base nos princípios e normas internacionais de direitos humanos. Ao contrário das abordagens tradicionais centradas em necessidades, a ABDH reconhece os indivíduos como titulares de direitos, que devem participar ativa e significativamente nos processos que lhes dizem respeito, e exige que os titulares de deveres, sobretudo os Estados, sejam responsabilizados pela concretização desses direitos. Esta abordagem baseia-se em princípios basilares como a universalidade, a indivisibilidade, a igualdade, a não discriminação, a participação e o respeito pelo Estado de Direito. Na sua vertente prática, a ABDH implica a identificação de titulares de direitos e de deveres, a análise das barreiras ao exercício desses direitos e a integração transversal de normas internacionais de direitos humanos nos processos políticos e administrativos. Ainda que tenha sido inicialmente aplicada no contexto da cooperação para o desenvolvimento, a ABDH tem vindo a ser incorporada em políticas públicas nacionais e europeias, nomeadamente em avaliações de impacto em direitos humanos, em estratégias de inclusão social e em programas financiados por organismos públicos. Trata-se, assim, de uma abordagem orientada para a promoção da dignidade humana, da cidadania ativa e da responsabilização institucional.
3.3. O jurista como arquiteto de sistemas justos
Os juristas asseguram que os processos de DDDH e AIDH são robustos, legalmente sólidos e que os resultados são considerados na tomada de decisão da organização, não sendo apenas um “exercício de tick-box”. Estes profissionais traduzem proactivamente os padrões internacionais de direitos humanos em requisitos práticos para o desenho e implementação de sistemas de IA. Embora o papel dos juristas na fase de litigância e indemnização seja óbvio, a ênfase na DDDH e AIDH implica uma mudança para uma função proativa, intervindo nas fases de desenho e desenvolvimento dos sistemas de IA. Isto significa que os juristas não estão apenas na fase reativa de solução de problemas e conflitos, mas passaram a ser participantes ativos na modelação da IA desde a sua conceção. Como Virginia Dignum explica em “Responsible Artificial Intelligence”, a responsabilidade pela IA não pode ser deixada apenas aos tecnocratas; é uma responsabilidade partilhada por todos – investigadores, programadores, fabricantes, fornecedores, decisores políticos e utilizadores – que devem estar envolvidos na discussão do propósito que se deseja para a tecnologia de IA nas suas vidas. Ao garantir a conformidade com os princípios PANEL e ao realizar a AIDH antes da implantação, os juristas podem prevenir violações dos direitos humanos, em vez de apenas reagirem ao facto consumado. Esta postura representa uma alteração de paradigma da profissão jurídica na era da IA.
4. O papel prático do jurista e do advogado na defesa dos Direitos Humanos perante a IA
Neste cenário de crescente integração da IA, o papel do jurista e do advogado é multifacetado. A sua função evolui de “guardião da lei” para “arquiteto de sistemas justos”, com responsabilidades que abrangem a conformidade regulatória, a defesa dos direitos individuais e a promoção de uma cultura de IA ética.
4.1. Responsabilidades essenciais na prática jurídica
A atuação do jurista na era da IA manifesta-se em diversas frentes práticas:
- Avaliar contratos e políticas de privacidade de sistemas de IA: Os juristas devem analisar contratos e políticas de privacidade de sistemas de IA para garantir a sua conformidade com os normativos em vigor, designadamente o Regulamento Geral sobre a Proteção de Dados (RGPD) e a Lei n.º 58/2019, de 8 de agosto. Incluem-se nesta avaliação a verificação da base legal para o tratamento de dados, a obtenção de consentimento válido e a garantia dos direitos dos titulares de dados, como foi o caso do chatbot Replika, onde a ausência de base legal para o tratamento de dados de menores foi uma falha crítica que levou à intervenção da Autoridade Italiana para a Proteção de Dados Pessoais.
- Participar na definição de critérios de transparência e explicabilidade dos sistemas: É imperativo que os juristas se envolvam na definição de critérios e que exijam documentação sobre os dados de treino, a lógica de decisão e os mecanismos de recurso e defesa perante os sistemas de IA. Esta participação é determinante para combater a opacidade da “caixa negra” e para garantir que as decisões automatizadas podem ser compreendidas e contestadas. O Regulamento Europeu de IA, por exemplo, determina que os sistemas de IA, especialmente os de alto risco, sejam transparentes nas suas operações e sujeitos a supervisão humana, embora os detalhes específicos destas exigências ainda sejam objeto de debate entre a indústria e os grupos de defesa do consumidor.
- Atuar como defensor dos direitos dos titulares de dados e dos afetados por decisões automatizadas: Os juristas são chamados a promover a literacia digital entre o público e a garantir o acesso à justiça para aqueles que são afetados por decisões automatizadas. A literacia digital é apontada como um fator essencial para que as pessoas compreendam as implicações da IA. O Regulamento Europeu de IA também impõe uma obrigação de literacia em IA para as organizações. Os juristas, ao traduzir conceitos complexos de IA e implicações legais em termos compreensíveis, preparam os indivíduos para interagir com a IA de forma consciente e para exigir responsabilização. Esta relação entre conhecimento e autonomia é essencial: o aumento da literacia digital leva a uma maior consciência dos direitos, o que, por sua vez, facilita o acesso à justiça e fortalece a defesa dos direitos humanos na era da IA.
4.2. Exemplos concretos da atuação do jurista
A aplicação prática do papel do jurista pode ser ilustrada em cenários quotidianos:
- Discriminação por algoritmo de recrutamento: Um advogado que representa um trabalhador discriminado por um algoritmo de recrutamento pode exigir a realização de uma AIDH para avaliar os efeitos do algoritmo nos direitos humanos. Pode também solicitar auditorias independentes ao sistema para escrutinar a sua imparcialidade e funcionalidade, e recorrer a entidades como a Comissão Nacional de Proteção de Dados (CNPD) ou para o Tribunal Constitucional, tendo em vista a proteção dos direitos fundamentais.
- IA na Administração Pública e atribuição de prestações sociais: Os juristas na Administração Pública devem garantir que a utilização de IA em processos como o de atribuição de prestações sociais respeita o princípio da igualdade e permite mecanismos de reclamação e revisão de decisões automatizadas. A IA, pela sua natureza de automação e escala, força a reavaliação e reafirmação de princípios constitucionais fundamentais, como a igualdade e o devido processo legal, em novos contextos. O cariz “digital” não diminui a vertente dos “direitos humanos”; pelo contrário, torna a sua aplicação mais complexa e urgente.
4.3. Advocacia para a atualização dos quadros legais
Além das suas funções diretas, os juristas desempenham um papel essencial na defesa da atualização dos quadros legais nacionais e internacionais, dada a natureza em constante evolução da IA e a potencial necessidade de “novos direitos digitais”. A discussão sobre a necessidade destes novos direitos, como o direito a datas de caducidade para dados ou o direito a saber o valor económico dos próprios dados, reflete a evolução das preocupações com a privacidade na era da IA e a necessidade de novos quadros para a sua proteção. Sandra Wachter [10], por exemplo, argumenta pela necessidade de um “direito a inferências razoáveis” para colmatar lacunas na responsabilização perante inferências de alto risco geradas por IA, que podem ser invasivas da privacidade ou prejudiciais à reputação e de baixa verificabilidade; visa garantir que, numa era dominada por algoritmos e dados, as deduções que são feitas sobre nós sejam transparentes, éticas e justas, protegendo a nossa privacidade e autonomia contra os potenciais abusos da IA.
4.4. Instrumentos Legais Chave na Regulação da IA
A Regulação da IA é sustentada por um conjunto de instrumentos legais e quadros normativos, tanto a nível nacional como internacional, que os juristas devem conhecer e aplicar:
Instrumento Legal/Quadro |
Âmbito/Natureza |
Efeito relevante na IA e direitos humanos |
Declaração Universal dos Direitos Humanos (DUDH) |
Universal / Soft Law |
Base para todos os direitos humanos, incluindo privacidade, liberdade de expressão e não discriminação, servindo de fonte de princípios para a Constitutional AI. |
Princípios Orientadores das Nações Unidas sobre Empresas e Direitos Humanos (UNGPs) |
Universal / Soft Law |
Estabelecem o quadro “Proteger, Respeitar e Reparar”, incluindo o Dever de Diligência em Direitos Humanos (DDDH) como requisito para as empresas, aplicável à IA. |
Convenção Europeia dos Direitos Humanos (CEDH) |
Regional / Hard Law |
Protege direitos fundamentais na Europa, como privacidade (Art. 8º) e liberdade de expressão (Art. 10º), aplicáveis à IA. |
Constituição da República Portuguesa (CRP) |
Nacional / Hard Law |
Consagra a dignidade da pessoa humana (Art. 1.º), igualdade (Art. 13.º), privacidade (Art. 26.º) e liberdade de expressão (Art. 37.º), servindo de base para a defesa de direitos perante a IA em Portugal. |
Regulamento Geral sobre a Proteção de Dados (RGPD) e Lei n.º 58/2019 |
Europeu/Nacional / Hard Law |
Protege dados pessoais, impondo requisitos de consentimento, transparência, direito ao apagamento e mecanismos de recurso, essenciais para a regulação da IA. |
Regulamento Europeu de IA (EU AI Act) |
Europeu / Hard Law |
Primeira lei abrangente sobre IA a nível global, com abordagem baseada no risco, proibição de sistemas de “risco inaceitável” e imposição de obrigações de transparência e accountability para sistemas de alto risco. A sua implementação é faseada, com algumas obrigações já em vigor e outras a serem aplicadas até 2026/2027. |
Diretiva relativa ao Dever de Diligência das Empresas em Sustentabilidade (CSDDD) |
Europeu / Hard Law |
Exige que as empresas mitiguem os seus efeitos negativos nos direitos humanos e no ambiente, incluindo os decorrentes do uso de IA. A sua aplicação tem sido objeto de atrasos e revisões. |
Tabela 2: Instrumentos Legais Chave e o seu Efeito na Regulação da IA
5. Conclusão
A integração da IA na sociedade moderna é uma realidade inegável que exige uma Abordagem Baseada nos Direitos Humanos como pilar fundamental. Contudo, é reconhecido que a ABDH, por si só, não é suficiente, exigindo a colaboração de múltiplos atores – Estados, setor privado e sociedade civil – e a criação de enquadramentos adicionais para uma Regulação eficaz.
5.1. Formação contínua e colaboração interdisciplinar
A complexidade da IA e os seus efeitos exigem um compromisso contínuo com a formação e a colaboração interdisciplinar. Juristas, tecnólogos, filósofos e cientistas sociais devem trabalhar em conjunto para compreender e mitigar os riscos da IA. A responsabilidade pela IA não pode ser deixada apenas aos tecnocratas; é uma responsabilidade partilhada por todos – investigadores, programadores, fabricantes, fornecedores, decisores políticos e utilizadores. Todos devem estar envolvidos na discussão do propósito que se deseja para a tecnologia de IA nas suas vidas. Esta perspetiva eleva a discussão para além da mera conformidade legal, transformando o desafio jurídico num projeto social coletivo. Uma IA alinhada com os direitos humanos depende de um compromisso coletivo de todas as partes interessadas para se envolverem ativamente no seu desenvolvimento e implementação responsáveis.
5.2. A adaptação contínua dos quadros legais
É imperativo que os quadros legais sejam continuamente atualizados e adaptados à realidade da IA em constante evolução. Alguns organismos internacionais têm vindo a fornecer orientações fundamentais: o Consenso de Pequim da UNESCO (2019) sobre IA e Educação realça a abordagem centrada no ser humano, com os professores no centro e a IA sempre sob controlo humano. O Conselho da Europa e a Comissão Europeia também têm contribuído significativamente para a Regulação da IA e a proteção dos direitos humanos, com a Diretiva CSDDD e, de forma mais acentuada, o Regulamento Europeu de IA. O Regulamento estabelece um precedente global com a sua abordagem baseada no risco, proibindo sistemas de “risco inaceitável” e impondo obrigações de transparência e accountability.
A Regulação da IA deve ser vista como um processo contínuo e adaptativo, e não como um evento único. Dada a rápida evolução da IA, um quadro regulamentar fixo rapidamente se tornará obsoleto. Portanto, uma Regulação eficaz deve ser ágil, aprendendo com a implementação e adaptando-se às novas capacidades tecnológicas e efeitos sociais. Contudo, a reflexão geral aponta para a natureza complexa da IA generativa e a importância de cautela na criação rápida de leis, sugerindo a observação atenta da sua integração na sociedade e o ajuste gradual dos quadros legais e éticos à medida que se compreende melhor as suas consequências.
5.3. A visão de futuro: IA como força para o bem
A visão de futuro é garantir que a IA seja uma força para o bem, que reforce e respeite, em vez de minar e colocar em perigo, os direitos humanos. Isto requer um compromisso contínuo com a revisão e a remediação, promovendo uma cultura de ética e consciência baseada em direitos. Como Luciano Floridi argumenta em “The Ethics of Artificial Intelligence” [11], é necessário um “novo casamento” entre a tecnologia digital e o ambientalismo para apoiar uma sociedade melhor e uma biosfera mais saudável. Em última análise, a construção de um futuro onde a IA coexista harmoniosamente com os direitos humanos dependerá da nossa capacidade coletiva de agir de forma responsável, informada e colaborativa, com o jurista a desempenhar um papel insubstituível na edificação de sistemas justos e equitativos.
[1] https://desapublications.un.org/publications/un-e-government-survey-2024
[2] Em inglês, Human Rights Due Diligence (HRDD).
[3] Em inglês, Human Rights Impact Assessment (HRIA).
[4] UNGPs – United Nations Guiding Principles on Business and Human Rights, adotados em 2011 pelo Conselho de Direitos Humanos das Nações Unidas, através da Resolução A/HRC/RES/17/4, https://docs.un.org/en/A/HRC/res/17/4 .
[5] Disponível em https://eur-lex.europa.eu/
[6] DPIA (Data Protection Impact Assessment), prevista no artigo 35.º do Regulamento (UE) 2016/679 – Regulamento Geral sobre a Proteção de Dados (RGPD).
[7] Em inglês, Ethical Impact Assessment – EIA.
Não se encontra prevista num instrumento jurídico vinculativo universal ou da União Europeia, ao contrário da AIPD. Trata-se, antes, de um instrumento normativo e metodológico de caráter voluntário, promovido por diversas instituições académicas, organizações internacionais e comissões de ética, destinado a avaliar os efeitos éticos de projetos, tecnologias ou políticas públicas — sobretudo em domínios de risco elevado, como a inteligência artificial, biotecnologia, robótica, big data ou neurotecnologia.
[8] Participation (participação), Accountability (responsabilidade), Non-discrimination and Equality (não-discriminação e igualdade), Empowerment (empoderamento) e Legality (legalidade).
[9] AI Act – Regulamento (UE) 2024/1689 do Parlamento Europeu e do Conselho, de 13 de junho de 2024, que cria regras harmonizadas em matéria de inteligência artificial.
[10] Wachter, S., & Mittelstadt, B. (2019). A Right to Reasonable Inferences: Re-Thinking Data Protection Law in the Age of Big Data and AI. Columbia Business Law Review, 2019
[11] Floridi, L. (2019). The Ethics of Artificial Intelligence. Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences, 377(2152), 20180081.