Mário Serra Pereira

Jurista


Consulte a sua obra neste link.


1. Introdução: A omnipresença dos Direitos Humanos na Era Digital

1.1. Os Direitos Humanos como realidade concreta e inalienável

Os direitos humanos, longe de serem meros princípios teóricos ou conceitos abstratos confinados a estudos académicos e acordos internacionais, constituem garantias efetivas que moldam e protegem a dignidade e a liberdade de cada pessoa no seu quotidiano. A sua concretização manifesta-se em todas as interações, desde as mais elementares relações interpessoais até às complexas estruturas sociais e administrativas que regem a vida em sociedade. A compreensão desta centralidade dos direitos humanos no dia-a-dia é fundamental para apreender a profundidade do seu impacto, especialmente quando confrontados com tecnologias disruptivas como a Inteligência Artificial (IA), capazes de modificar os paradigmas em que assenta a vida atual. Ao focar a discussão na experiência vivida, procura-se tornar mais acessível a leitores não juristas a compreensão de como a IA, um domínio aparentemente técnico, pode influenciar diretamente a vida quotidiana.

1.2. O quadro legal de proteção: pilares nacionais e internacionais

O quadro legal que sustenta esta realidade é vasto e multifacetado. A Declaração Universal dos Direitos Humanos (DUDH) estabelece uma base global para a proteção dos direitos fundamentais, servindo como um farol para a dignidade humana. A Convenção Europeia dos Direitos Humanos (CEDH) reforça e pormenoriza estas garantias no contexto europeu, constituindo um mecanismo regional de proteção. No plano nacional, a Constituição da República Portuguesa (CRP) concretiza a proteção dos direitos humanos, em artigos como o 1.º, que consagra a dignidade da pessoa humana, o 13.º, que estabelece o princípio da igualdade, o 26.º, que protege a privacidade, e o 37.º, que garante a liberdade de expressão. Estes preceitos são diretamente relevantes para os problemas colocados pela IA, sendo o quadro mais imediato através do qual os danos causados pela IA – como a discriminação algorítmica, a vigilância excessiva ou a moderação de conteúdo – são avaliados e contestados em Portugal. Esta perspetiva de múltiplas camadas na proteção dos direitos humanos, desde princípios globais a sistemas legais nacionais, é essencial para uma análise completa da interação entre IA e direitos humanos.

2. Compreender a Inteligência Artificial: conceitos essenciais e mecanismos operacionais

2.1. Definição e distinções fundamentais

A IA refere-se à capacidade de máquinas realizarem tarefas que, tipicamente, exigiriam inteligência humana. Isto inclui aprender, resolver problemas, tomar decisões, perceber o ambiente que as rodeia e compreender a linguagem. Tradicionalmente, a IA pode ser distinguida entre sistemas baseados em regras, que seguem instruções programadas de forma explícita e previsível, e sistemas de aprendizagem automática (machine learning), que aprendem a partir de dados, tornando-se mais adaptáveis e complexos.

Dentro da aprendizagem automática, existe uma subárea chamada Aprendizagem Profunda (Deep Learning). Os modelos de aprendizagem profunda são inspirados na estrutura e função do cérebro humano, conhecidos como redes neuronais artificiais. Estas redes são compostas por múltiplas camadas, o que lhes permite aprender padrões complexos diretamente a partir de grandes volumes de dados. O termo “profunda” (deep) refere-se precisamente ao número de camadas na rede neuronal artificial.

2.2. Os Grandes Modelos de Linguagem (LLMs) e a arquitetura Transformer

Os Grandes Modelos de Linguagem (LLMs [1]) são modelos avançados de IA, especificamente concebidos para compreender e gerar linguagem humana. São treinados com conjuntos gigantescos de texto e código, o que lhes permite realizar inúmeras tarefas relacionadas com a linguagem, como resumir, traduzir e participar em diálogos.

No funcionamento mais básico dos LLMs, o texto é primeiramente dividido em unidades mais pequenas, chamadas “tokens” (palavras inteiras ou mesmo fragmentos de palavras). Para captar o significado de um token, os LLMs analisam o seu contexto, observando as palavras próximas em grandes bases de dados de treino. Este processo resulta na criação de uma representação numérica para cada palavra, conhecida como “embedding” de palavra. Cada valor nesta lista numérica representa um aspeto diferente do significado da palavra. A forma como estas características são derivadas permite ao modelo identificar grupos de palavras com significados relacionados.

A capacidade dos LLMs de gerar texto de modo fluente foi significativamente estimulada por uma arquitetura inovadora chamada Transformer. Esta ferramenta revolucionou o modo como os computadores processam a linguagem, analisando sequências inteiras de texto de uma só vez (frases, parágrafos ou artigos), em vez de processá-las palavra a palavra. Este processamento simultâneo permite aos Transformers captar o contexto e os padrões de forma mais eficaz. Um componente chave dentro dos Transformers é o mecanismo de “auto-atenção”, que modela diretamente as relações entre todas as palavras numa frase, independentemente da sua posição. Isto ajuda a clarificar o significado de palavras que podem ter múltiplas interpretações (por exemplo, distinguir entre diferentes usos da palavra “banco”) ao prestar atenção às palavras circundantes relevantes. Ao contrário de arquiteturas mais antigas, que processavam a informação sequencialmente, os Transformers conseguem realizar este processo num número menor e consistente de passos, tornando-os mais eficientes para sequências longas.

Depois de conhecer o pedido do utilizador (o “prompt”), o objetivo principal do Transformer é prever a próxima palavra numa sequência e repetir este processo até que seja gerada uma resposta completa. O modelo atribui uma pontuação de probabilidade a cada palavra potencial para determinar a sua probabilidade de ser a próxima. Aqui entram em ação duas metodologias de abordagem: a mais simples, como a “greedy search” (busca gulosa), que se foca apenas na palavra mais provável; ou a mais avançada, como a “beam search” (busca em feixe), que considera as probabilidades de um conjunto maior de palavras em conjunto para melhorar a qualidade geral da saída.

Os modelos Transformer são muito versáteis e podem unificar tarefas que anteriormente exigiam modelos autónomos especializados, como por exemplo para a sumarização, para a tradução ou para a recuperação de informação. Por serem treinados em quantidades gigantescas de dados da internet, estes modelos podem realizar uma multiplicidade de tarefas, como por exemplo gerar código de computador, notas musicais ou até sequências de ADN. Esta capacidade levou a que os Transformers passassem a ser conhecidos como “modelos de fundação”.

2.3. A IA generativa e os desafios da “Verdade”

A IA generativa refere-se a modelos de aprendizagem profunda que aprendem a partir de dados brutos para produzir resultados estatisticamente prováveis, criando conteúdo novo, mas similar aos dados originais.

Apesar da sua sofisticação, a definição do que constitui um texto “bom” gerado por LLMs é muito difícil, considerando a sua subjetividade e dependência do contexto. Esta dificuldade em definir um texto “bom” gerado por IA é fundamental, pois sublinha o desafio de estabelecer padrões de verdade e objetividade, o que, por sua vez, complica a criação de quadros legais eficazes para lidar com fenómenos como as “alucinações” e o “discurso descuidado”. A IA dá prioridade à plausibilidade e à probabilidade estatística, em detrimento da precisão factual ou da verdade objetiva, o que explica a ocorrência do que é vulgarmente conhecido por “alucinações” [2] e “discurso descuidado” (careless speech) [3].

Para afinar os modelos de linguagem com base em preferências humanas, são utilizados métodos como o Reinforcement Learning from Human Feedback (RLHF), em que pessoas reais avaliam as respostas do modelo e dão-lhe o seu feedback. Esta forma de reforço leva o modelo a ajustar o seu comportamento para melhorar respostas futuras, tornando-as mais úteis, éticas e seguras. Outro método é a Constitutional AI, que treina modelos para criticar e rever as suas próprias respostas com base num conjunto de princípios, uma espécie de “constituição”. Este processo utiliza feedback gerado por IA para escolher saídas menos prejudiciais, aumentando a transparência e reduzindo a necessidade de seres humanos serem confrontados com a necessidade de rever conteúdo traumático. A DUDH é uma fonte representativa de valores humanos para tais “constituições”. A inclusão da Declaração como fonte de valores sublinha que a incorporação de valores humanos na IA é um processo de engenharia, não uma capacidade inerente, e, portanto, mostra que esta se encontra sujeita às limitações do seu design e treino.

3. IA no quotidiano: impactos práticos nos Direitos Humanos

A IA, por ser uma ferramenta poderosa e de alcance ainda não totalmente compreensível, tem a capacidade de afetar os direitos das pessoas tanto de forma positiva como negativa. As suas implicações são particularmente evidentes na comunicação social, com destaque para os direitos à liberdade de opinião e expressão, privacidade e não discriminação. Esta dualidade da IA – como ferramenta de progresso e de potencial dano – é um tema central e do presente, não de um qualquer futuro ou de ficção científica. O poder da IA para processar quantidades gigantescas de dados e automatizar decisões, embora eficiente, acarreta o risco de manter e ampliar vieses sociais existentes e de criar novas formas de dano, se não for cuidadosamente concebida e gerida. Esta natureza dual exige uma abordagem proactiva e baseada nos direitos humanos para o desenvolvimento e implantação da IA.

3.1. Impacto na privacidade

A capacidade preditiva e dedutiva da IA suscita preocupações muito sérias quanto à violação da privacidade. São exemplos práticos desta ameaça os sistemas de reconhecimento facial utilizados para vigilância e algoritmos de “scoring” de crédito [4], que deduzem informações sensíveis sobre pessoas. O caso Cambridge Analytica é um exemplo paradigmático: informações de mais de 50 milhões de utilizadores do Facebook foram recolhidas sem a sua permissão, expondo a falta de fiscalização por parte da plataforma, suscitando fundadas preocupações com a privacidade das informações pessoais que cada um ali confiadamente introduz. No setor público, o conceito de “Estado Social Digital” [5] ilustra como a datificação [6] e o uso de dados por entidades governamentais tem impacto direto sobre os direitos individuais. A automatização dos processos reduz a burocracia e melhora o acesso aos programas sociais, permitindo que mais pessoas obtenham ajuda de forma rápida e simples; a digitalização também ajuda a reduzir falhas operacionais, garantindo que recursos sejam distribuídos de maneira mais justa e transparente. Porém, esta digitalização suscita questões importantes, especialmente em relação à privacidade e à exclusão digital. O uso de algoritmos pode impedir a inclusão de um olhar humano e de humanidade sobre o problema, tornando as decisões mais rígidas e, por vezes, injustas. Além disso, aqueles que não têm acesso à internet ou conhecimentos tecnológicos podem ser deixados para trás, aumentando as desigualdades. O desafio é equilibrar inovação com a proteção dos direitos, garantindo que a tecnologia sirva a população sem comprometer sua autonomia e segurança.

Recentemente, a decisão da Autoridade Italiana para a Proteção de Dados Pessoais relativamente ao chatbot Replika [7] veio tornar públicos e evidentes os riscos concretos para menores e pessoas em estado de fragilidade emocional, devido a falhas na verificação de idade, a conteúdos sexualmente inapropriados e à ausência de uma base legal clara para o tratamento de dados de menores. O “direito ao apagamento”, especialmente relevante para crianças no contexto do RGPD [8], sublinha a necessidade de serem criados mecanismos eficazes para a eliminação de dados pessoais. A discussão sobre a necessidade de “novos direitos digitais”, como o direito a datas de caducidade para o uso de dados pessoais ou o direito a saber o valor económico dos próprios dados, reflete a evolução das preocupações com a privacidade na era da IA e a necessidade de novos quadros para a sua proteção.

3.2. Liberdade de expressão e informação

A IA pode criar problemas consideráveis na moderação automatizada de conteúdo nas redes sociais, aumentando os riscos de censura e do reforço de “bolhas informativas”, que limitam a exposição a diversas perspetivas. A falta de transparência na classificação e curadoria dos resultados de pesquisa pode reforçar a ideia de que são objetivos, mesmo que não o sejam, influenciando a informação que os utilizadores recebem. A existência de conteúdo “awful but lawful” (ofensivo ou inflamatório, mas legal) é um desafio para as plataformas, pois os sistemas de IA podem ter dificuldade em distinguir entre discurso prejudicial e discurso protegido, tomando decisões arbitrárias.

A difusão de deepfakes (conteúdo audiovisual sintético, gerado por IA) e a desinformação criada por inteligência artificial representam uma ameaça às funções essenciais da democracia. Estes fenómenos comprometem a inclusão informada, influenciam a construção da agenda pública e a vontade coletiva, além de afetarem o processo de tomada de decisões em sociedade; são exemplos disto a manipulação eleitoral, ataques a oponentes e interferência estrangeira. A pornografia deepfake, em particular, destaca-se pelo seu impacto devastador na vida das mulheres e pela inadequação dos quadros legais atuais para lidar com o problema, uma vez que as leis existentes podem não cobrir a questão do consentimento na criação de imagens sintéticas ou a dificuldade de identificar os responsáveis pela sua disseminação. O “discurso descuidado” (careless speech), representa um risco adicional de degradação e homogeneização do conhecimento, levantando a questão do dever legal dos LLMs de “dizer a verdade”.

3.3. Não discriminação e vieses algorítmicos

As preocupações relativas à discriminação potenciada por sistemas de IA revestem-se de particular importância, como se vê pelos exemplos dos algoritmos de pontuação de crédito ou de recrutamento, que podem perpetuar enviesamentos de género ou etnia, comprometendo o acesso ao emprego ou a serviços essenciais. O viés algorítmico ocorre quando um sistema informático toma decisões de forma parcial ou injusta, favorecendo ou prejudicando certos grupos de pessoas. Isto sucede porque os algoritmos são treinados com dados reais, que muitas vezes refletem desigualdades ou preconceitos já existentes na sociedade. Por exemplo, um algoritmo de recrutamento pode favorecer candidatos de um determinado sexo ou etnia se os dados usados no treino refletirem práticas discriminatórias do passado. Sem uma correção adequada, o sistema repete ou até agrava essas injustiças. Por outro lado, os enviesamentos algorítmicos, designadamente nos sistemas de deteção de linguagem ofensiva, podem originar falsos positivos ou negativos relativamente a diferentes termos identitários em diversos idiomas. Igualmente, os dados de treino enviesados podem resultar em resultados imprecisos que violam direitos fundamentais, como o da não discriminação.

O impacto da IA no emprego é também uma preocupação, com estudos a indicar que empregos predominantemente ocupados por mulheres (como escriturárias ou secretárias executivas) correm maior risco de substituição pela IA. A integração da IA na educação, especialmente em regiões menos favorecidas, levanta questões sobre se será um novo fator de desigualdade social, aumentando as disparidades existentes, ou se, pelo contrário, as poderá atenuar, criando tutores individualizados e sempre presentes. Outra questão prende-se com as tecnologias de edição de imagem com IA, que podem inadvertidamente reforçar padrões de beleza estereotipados e irreais, levando os utilizadores a criar ideais distorcidos de aparência, o que pode ter um efeito prejudicial na autoestima, particularmente entre os mais jovens.

3.4. O Direito à reparação

A automação dos processos também suscita questões sobre a eficácia e acessibilidade dos mecanismos de recurso. Um aspeto essencial dos direitos humanos é o de que qualquer violação deve dar lugar a uma indemnização, exigindo-se mecanismos eficazes quando a tecnologia viola a dignidade humana. A transparência é vital para a existência de mecanismos de responsabilização eficazes, exigindo que as empresas publiquem dados sobre reclamações e pedidos de compensação e divulguem como são avaliadas as violações e as respetivas ações corretivas.

A inadequação dos quadros legais existentes para lidar com fenómenos como o “discurso descuidado” revela uma lacuna significativa nas vias de compensação para este tipo de dano gerado por IA. Por exemplo, na Europa, o quadro legal existente contempla deveres limitados e setoriais, não se adequando totalmente ao dano intangível e cumulativo do “discurso descuidado”, uma vez que as leis de difamação ou desinformação podem não se aplicar devido à ausência de intenção da IA ou à natureza difusa do dano.

3.5. Os direitos das crianças

Os direitos das crianças no contexto da IA são uma preocupação crescente. A iniciativa “Responsible Data for Children” (RD4C), da UNICEF, foca-se na IA para crianças e na necessidade de orientação política para promover os seus direitos, assinalando os riscos potenciais, mas também as oportunidades. Este projeto é um esforço para garantir que os dados das crianças são tratados de forma responsável, sublinhando-se que o princípio do “melhor interesse da criança”, consagrado na Convenção das Nações Unidas sobre os Direitos da Criança, adotada em 1989, deve guiar o desenvolvimento de aplicações de IA que as afetem.

4. Conclusão

A análise dos impactos da Inteligência Artificial revela uma necessidade de adaptação legal e ética constantes, face à evolução tecnológica. A discussão sobre “novos direitos digitais” e a inadequação dos quadros legais atuais para lidar com os danos gerados por IA, como o “discurso descuidado” e a pornografia deepfake, põem em evidência o atraso significativo da capacidade de resposta dos sistemas jurídicos e éticos face ao avanço tecnológico. Impõe-se uma reforma legislativa contínua, a criação de diretrizes éticas adequadas e a capacitação do poder judicial para acompanhar os desenvolvimentos da IA e garantir a proteção dos direitos humanos.

Além disso, o impacto desproporcionado em grupos como as mulheres (no emprego, na pornografia deepfake e nos padrões de beleza) e as crianças, demonstra que os efeitos negativos da IA não são distribuídos uniformemente. Pelo contrário, tendem a exacerbar vulnerabilidades e desigualdades já existentes. Se os sistemas de IA forem treinados com dados enviesados ou concebidos sem considerar as necessidades de diferentes utilizadores, irão inevitavelmente reforçar e ampliar as distorções sociais, mantendo a discriminação sistémica contra grupos menos protegidos. Esta complexidade plural dos desafios da IA para os direitos humanos sublinha a imperatividade de uma abordagem proactiva e informada, que será explorada em maior profundidade no ensaio subsequente, focando-se nas soluções e no papel estratégico do jurista.

[1] Do inglês Large Language Models, LLM, cuja sigla será aqui usada.

[2] Respostas aparentemente credíveis geradas por sistemas de inteligência artificial que contêm informações fabricadas, inexactas ou não verificáveis, apresentadas com elevado grau de confiança, sem correspondência com dados reais ou fontes fidedignas.

[3] O “discurso descuidado” refere-se a respostas plausíveis e confiantes da IA que, embora não intencionalmente falsas, contêm imprecisões factuais subtis, referências enganosas ou informações enviesadas, resultando numa degradação da qualidade do conhecimento.

[4] Sistemas desenvolvidos para a análise de risco de crédito ao consumo de particulares, baseado em múltiplas variáveis, como a idade, a profissão, a finalidade do crédito, o rendimento, entre outros.

[5] Este conceito refere-se à digitalização dos serviços sociais, ou seja, o uso de tecnologia pelo Estado para oferecer benefícios sociais e assistência à população.

[6] Pode entender-se este conceito como a transformação da vida, comportamentos e informações pessoais de qualquer natureza em dados utilizáveis por múltiplos sistemas, com o objetivo de tomar decisões estratégicas ou identificar padrões de comportamento.

[7] Chatbot de inteligência artificial criado por uma empresa privada, com o propósito de ser um “companheiro virtual”, podendo conversar com os utilizadores, aprender sobre as suas preferências e até simular interações emocionais, como um amigo ou parceiro virtual.

[8] Regulamento (UE) 2016/679 do Parlamento Europeu e do Conselho, de 27 de abril de 2016, relativo à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais e à livre circulação desses dados (Regulamento Geral sobre a Proteção de Dados).