Inês Neves

Assistente convidada da Faculdade de Direito da Universidade do Porto. 

Investigadora integrada do CIJ – Centro de Investigação Interdisciplinar em Justiça.

Membro da equipa do Módulo Jean Monnet – DigEUCit: A Digital Europe for Citizens. Constitutional and policymaking challenges. 

Doutora em Direito. 

Advogada com atuação nas áreas de europeu e concorrência, sustentabilidade/ESG, e regulação digital – Morais Leitão.

O Regulamento (UE) 2024/1689 do Parlamento Europeu e do Conselho, de 13 de junho de 2024 (‘Regulamento Inteligência Artificial’ ou ‘AI Act’)[1] entrou em vigor a 1 de agosto de 2024, e será plenamente aplicável em 2026, conhecendo até lá uma aplicação faseada.

Pese embora a centralidade assumida pelas regras (substantivas) aplicáveis aos sistemas de Inteligência Artificial (‘IA’) de risco elevado e de risco específico, e sem prejuízo da importância das obrigações que delas decorrem para prestadores, responsáveis pela implantação e importadores e distribuidores de sistemas de IA abrangidos, o Regulamento Inteligência Artificial prevê, ainda, um conjunto de regras adjetivo-processuais na origem de um sistema de governação único, que importa conhecer.

A governance do AI Act assenta num sistema complexo e articulado, envolvendo, simultaneamente, autoridades nacionais e entidades europeias, assim como autoridades com competência específica para efeitos do Regulamento, a par de entidades com competência setorial.

No que ao primeiro binómio se refere, se é certo que cabe aos Estados-Membros designar, pelo menos, uma autoridade notificadora e uma autoridade de fiscalização do mercado como autoridades nacionais competentes do mercado para efeitos de supervisão da aplicação e execução do Regulamento, daí não resulta o apagamento nem uma menorização do sistema de governação ao nível da União Europeia (‘UE’). Em particular, e como resulta do considerando 148 do Regulamento, esse sistema é necessário para i) coordenar e apoiar a aplicação do Regulamento a nível nacional, ii) criar capacidades, coordenar e desenvolver conhecimentos especializados centrais a nível da União, e iii) integrar as partes interessadas no domínio da IA. Se se quiser, é necessário para evitar as questões suscitadas por atos normativos congéneres, onde a descentralização se poderá ter convertido em inimiga da harmonização pretendida[2].

Tendo em conta a data de aplicação plena do Regulamento – 2 de agosto de 2026 -, o legislador europeu determina que as disposições relativas aos organismos notificados e à estrutura de governação deverão aplicar-se a partir de 2 de agosto de 2025.

A profusão, no entretanto, de iniciativas e de intervenções associadas a figuras desta nova arquitetura institucional, e no seio da qual se destacam o Serviço Europeu para a Inteligência Artificial (‘AI Office’) e o Comité Europeu para a Inteligência Artificial (‘AI Board’), justificam uma nota descritiva do sistema de governação ao nível da União.

É esse o objeto deste texto. Quem é quem no sistema de governance do AI Act?

Da descentralização à concentração com policentrismo

A um princípio de descentralização, caracterizador do regime de governação e de execução aplicável aos sistemas de IA de risco elevado e de risco específico abrangidos pelo Regulamento (na alçada das autoridades nacionais competentes), opõe-se a concentração que, relativamente aos modelos de IA de finalidade geral, se traduz na centralidade inegável da Comissão Europeia e do Serviço para a Inteligência Artificial. À Comissão Europeia em particular cabe assegurar a fiscalização do cumprimento do Regulamento pelos prestadores de modelos de IA de finalidade geral, aos quais poderá, inclusive, aplicar coimas, cujos limiares ascendem a 15 000 000 EUR ou 3% do volume de negócios relevante, consoante o que seja mais elevado (cf. artigo 101.º, n.º 1 do Regulamento)[3].

Apesar desta tentativa de separação vertical dos planos, a estrutura de governação ao nível UE está, porém, e como se procurará aqui demonstrar, pensada para satisfazer o primeiro objetivo atrás referido: garantir a coordenação e o apoio à aplicação do Regulamento a nível nacional. Por isso mesmo, e porventura prevendo as dificuldades ínsitas a um princípio de descentralização puro, procurou o legislador europeu garantir que as autoridades nacionais competentes atuam mais como longa manus do executivo europeu – garantes da aplicação de um mesmo Direito – do que como autoridades concretizadoras de legislações diferentes. Assim, e por exemplo, seja através da adoção de orientações (cf. artigo 96.º do Regulamento), de atos delegados (cf. artigo 97.º do Regulamento) e de atos de execução – prevendo, por exemplo, especificações comuns às quais os sistemas de IA de risco elevado e os modelos de IA de finalidade geral poderão-deverão aderir (cf. artigo 41.º do Regulamento) -, seja através da última palavra que lhe é reconhecida, em contexto de coordenação entre autoridades nacionais (cf., inter alia, o artigo 81.º do Regulamento), a preponderância da Comissão como legislador e executivo europeu surge particularmente visível. E preenchida (pelo menos parcialmente, e neste âmbito) fica, pois, a aparente (grande) margem de conformação e de discricionariedade do legislador e do executivo nacionais.

Nos próximos pontos, e em atenção aos atores do modelo de governação desenhado pelo legislador europeu, dar-se-á nota de como, logo ao nível orgânico, se procurou assegurar a existência de fóruns idóneos a assegurar uma aplicação e execução coordenadas, uniformes e participadas do Regulamento, sem, porém, descurar as vantagens do policentrismo, mais não seja como revelador dos diferentes interesses subjacentes ao ecossistema da IA. Apresentam-se, de seguida, os atores que, além da Comissão Europeia, compõem o puzzle do sistema europeu de governance.

O Serviço Europeu para a Inteligência Artificial (‘AI Office’)

O Serviço Europeu para a Inteligência Artificial (doravante ‘Serviço para a IA’ ou ‘AI Office’ – cf. artigo 64.º) foi criado por Decisão da Comissão Europeia de 24 de janeiro de 2024[4] e integra a estrutura administrativa da Direção-Geral das Redes de Comunicação, Conteúdos e Tecnologias (cf. artigo 1.º da Decisão C/2024/1459).

Podendo caracterizar-se como verdadeiro primus inter pares no que se refere à aplicação e execução do Regulamento ao nível de competências UE (modelos de IA de finalidade geral), o AI Office surge da necessidade de “desenvolver conhecimentos especializados e capacidades a nível da União com vista a promover essa compreensão e a contribuir para a aplicação e execução” do AI Act (cf. considerando 4 da Decisão C/2024/1459).

De entre as suas missões principais, constam as de: i) contribuir para a aplicação do Regulamento (a vários níveis), ii) reforçar o desenvolvimento de uma IA de confiança, em cooperação com atores públicos e privados, e iii) fomentar a cooperação, quer ao nível internacional, quer com uma diversidade de instituições, peritos e partes interessadas.

Em particular no que se refere aos modelos de IA de finalidade geral – excetuados os casos em que a Comissão decida atuar ela própria, por solicitação das autoridades de fiscalização do mercado – o exclusivo dos poderes de supervisão e execução é confiado ao Serviço para a IA (cf. artigo 88.º e considerando 162 do Regulamento)[5], a quem cabe “tomar as medidas necessárias para acompanhar a execução e o cumprimento efetivos do presente regulamento pelos prestadores de modelos de IA de finalidade geral” (cf. artigo 89.º, n.º 1 do Regulamento). Conforme mais bem densificado na Decisão C/2024/1459, cabe ao Serviço para a IA, inter alia, i) desenvolver ferramentas, metodologias e parâmetros de referência, e, bem assim, ii) acompanhar a implementação e a aplicação das regras aplicáveis, monitorizando o surgimento de riscos imprevistos e investigando infrações (cf. artigo 3.º, n.º 1, als. a) a d) da Decisão C/2024/1459). Já os artigos 89.º e 91.º e ss. do Regulamento elencam o conjunto de poderes e de medidas que o Serviço para a IA poderá adotar relativamente aos prestadores de modelos de IA de finalidade geral, em respeito pelos respetivos direitos processuais (cf. artigo 94.º do Regulamento)[6]. Trata-se de poderes que não são estranhos à legislação europeia, incluindo pedidos de documentação e informações (cf. artigo 91.º do Regulamento), a realização de avaliações do modelo (cf. artigo 92.º do Regulamento) e a solicitação de medidas adequadas, que poderão abranger a restrição da disponibilização no mercado, a retirada (impedimento da disponibilização no mercado), ou a recolha do modelo (retorno do produto já disponibilizado) (cf. artigo 93.º do Regulamento)[7]. Nos dois últimos casos, o Serviço para a IA poderá iniciar um diálogo estruturado prévio com o prestador[8].

Já no que se refere aos sistemas de IA que se baseiam em modelos de finalidade geral, a competência do Serviço para a IA visa, sobretudo, os cenários em que o modelo e o sistema são desenvolvidos pelo mesmo fornecedor, então se compreendendo à luz do objetivo de captar as vantagens da supervisão ao nível da União, e evitar, assim, uma sobreposição de competências. De acordo com o Regulamento, ao Serviço para a IA deverão ser reconhecidos os poderes de uma autoridade de fiscalização do mercado na aceção do Regulamento (UE) 2019/1020[9] (cf. artigo 75.º, n.º 1 do Regulamento).

A intervenção do Serviço para a IA no domínio dos sistemas de IA que se baseiam em modelos de IA de finalidade geral não se circunscreve aos cenários de coincidência subjetiva. Com efeito, não obstante a regra seja a da fiscalização dos sistemas pelas autoridades de fiscalização do mercado, o Serviço para a IA coopera com aquelas, quer na realização de avaliações da conformidade, quer na obtenção de informações i) seja relativamente aos sistemas que possam ser utilizados diretamente pelos responsáveis pela implantação para, pelo menos, uma finalidade classificada como sendo de risco elevado (cf. artigo 75.º, n.º 2 do Regulamento), ii) seja nos cenários em que uma autoridade nacional não esteja em condições de concluir a sua investigação sem a obtenção de informações necessárias para a avaliação da conformidade do sistema (cf. artigo 75.º, n.º 3 do Regulamento).

Além de uma intervenção direta no plano do enforcement do Regulamento relativamente aos modelos de IA de finalidade geral, o Serviço para a IA assume, ainda, um papel coadjuvante das autoridades nacionais competentes, no que se refere aos sistemas de IA de risco elevado e às práticas proibidas, ora acompanhando a instituição de autoridades nacionais competentes e de outros organismos a nível nacional, e a respetiva atuação (cf. artigo 3.º, n.º 1, al. f) e n.º 2, al. g) da Decisão C/2024/1459), ora assegurando a coordenação entre autoridades de fiscalização do mercado e a Comissão, em atividades e investigações conjuntas (cf. artigo 74.º, n.º 11 e considerando 160 do Regulamento).

Acrescem a estas dimensões de execução não menos importantes funções, seja no acompanhamento da evolução dos mercados e tecnologias de IA, seja no desenho de uma abordagem estratégica, participada, coerente e eficaz da União na matéria, capaz de alavancar os benefícios sociais e económicos da Inteligência Artificial (cf. artigo 2.º da Decisão C/2024/1459 e, em particular, o seu n.º 2). Compreende-se, a esta luz, a intervenção do Serviço para a IA na preparação de atos de execução, atos delegados, orientações e diretrizes, protocolos normalizados, boas práticas, pedidos de normalização, especificações comuns, relatórios de avaliação (cf. artigo 3.º, n.º 2 da Decisão C/2024/1459), a que acresce, já em conjunto com os Estados-Membros, a sua atuação ao nível da promoção e facilitação da elaboração de códigos de conduta para a aplicação voluntária de requisitos específicos[10].

Finalmente, resulta também da Decisão C/2024/1459 uma importante intervenção nos planos da cooperação e da interação, com i) as partes interessadas, incluindo peritos da comunidade científica e operadores na cadeia de valor da IA (cf. artigo 4.º da Decisão C/2024/1459), com ii) outras direções-gerais e serviços competentes da Comissão (cf. artigo 5.º da Decisão C/2024/1459), com iii) outros órgãos e organismos da União (cf. artigo 6.º da Decisão C/2024/1459), e, bem assim, com iv) países terceiros e organizações internacionais (cf. artigo 7.º da Decisão C/2024/1459).

O Comité Europeu para a Inteligência Artificial (‘AI Board’)

A centralidade do Serviço para a IA não afasta a importância do Comité Europeu para a Inteligência Artificial (‘Comité’ ou ‘AI Board’ – cf. artigos 65.º e 66.º), desde logo enquanto elo de ligação das dimensões europeia e nacional de governação do Regulamento. De acordo com o legislador europeu, a criação do Comité compreende-se à luz do objetivo de “facilitar uma aplicação simples, eficaz e harmoniosa” ou coerente do Regulamento (cf. artigo 66.º, n.º 1 e considerando 149 do Regulamento). Para o efeito, tem por missão prestar apoio à Comissão e aos Estados-Membros no desenvolvimento de um ecossistema de inovação em matéria de IA próspero, competitivo, resiliente, fiável e em consonância com os valores da União.

Nos termos do artigo 65.º, n.º 7 do AI Act, a organização e o modo de funcionamento do Comité deverão assegurar a objetividade e a imparcialidade das suas atividades. Do seu Regulamento interno[11], que viria a ser adotado na sua segunda reunião, ocorrida a 10 de setembro de 2024[12] (doravante ‘Regulamento interno do Comité’), constam “os procedimentos para o processo de seleção, a duração do mandato e as especificações das funções do presidente, as modalidades pormenorizadas de votação e a organização das atividades do Comité e dos seus subgrupos” (cf. artigo 65.º, n.º 5 do Regulamento).

Conforme resulta do artigo 65.º do Regulamento, o Comité deverá ser composto por representantes dos Estados-Membros (um por cada Estado)[13], designados por um período de três anos, renovável uma vez (cf. artigo 65.º, n. 3 do Regulamento), e que se poderão fazer acompanhar por uma delegação de peritos nacionais[14]. Além dos Estados-Membros, o Comité conta ainda com a participação i) da Autoridade Europeia para a Proteção de Dados e da Islândia, Liechtenstein e Noruega, na qualidade de observadores, e, bem assim, ii) do Serviço para IA que não participa nas votações (cf. artigo 65.º, n.º 2 do Regulamento[15]).

No que se refere à respetiva presidência, que é, em regra, assegurada por um dos representantes dos Estados-Membros, prevê o Regulamento interno do Comité que, excecionalmente, até 31 de dezembro de 2025, a mesma será exercida segundo um calendário de rotação semestral, pela ordem Hungria, Polónia e Dinamarca. Já o secretariado é assegurado pelo Serviço para a IA (cf. artigo 65.º, n.º 8 do Regulamento IA, e artigo 2.º, n.os 4 e 5 do Regulamento interno do Comité).

No plano da sua organização interna, e além de outros possíveis (permanentes ou temporários)[16], o Comité contará com dois subgrupos permanentes, presididos pelo Serviço para a IA (cf. artigo 7.º, n.º 6 do Regulamento interno do Comité), e que funcionarão como plataforma de cooperação e de intercâmbio entre as autoridades sobre questões relacionadas com a fiscalização do mercado e os organismos notificados. Espera-se, assim, que as autoridades de fiscalização do mercado e outras autoridades nacionais competentes coordenem as suas atividades e cooperem no âmbito do Comité (cf. artigo 57.º, n.º 14 do Regulamento), também com esse fim se compreendendo os deveres vários de comunicação e de reporte aplicáveis (cf. artigo 57.º, n.º 16 e considerando 161 do Regulamento).

Os referidos subgrupos do Comité assegurarão essa articulação. São eles: i) o subgrupo permanente para a fiscalização do mercado, composto por representantes das autoridades de fiscalização do mercado dos Estados-Membros (cf. artigo 7.º, n.os 3 e 4 do Regulamento interno do Comité), e que atuará como grupo de cooperação administrativa (‘ADCO’) para efeitos do Regulamento (UE) 2019/1020[17]; e ii) o subgrupo permanente das autoridades notificadoras, integrando representantes dessas autoridades (cf. artigo 7.º, n.º 5 do Regulamento interno do Comité).

Em termos funcionais, o Comité Europeu para a Inteligência Artificial assume-se, sobretudo, como um órgão consultivo que i) prestará aconselhamento à Comissão e aos Estados-Membros, através da emissão de recomendações, conselhos e pareceres sobre matérias relacionadas com a execução do Regulamento, incluindo especificações técnicas ou normas existentes[18], e que ii) impulsionará, participará ou coadjuvará, ainda, os processos de elaboração de orientações (cf. artigo 6.º, n.º 5 e considerando 53 do Regulamento); de apresentação de pedidos de normalização (cf. artigo 40.º, n.º 2 e considerando 121 do Regulamento); de elaboração, avaliação e acompanhamento da eficácia dos códigos de práticas a nível da União (cf. artigo 56.º do Regulamento); e de adoção de modelos normalizados a disponibilizar pelo Serviço para a IA para atender às necessidades específicas das PME (cf. artigo 62.º, n.º 3, al. a) e considerando 143 do Regulamento).

Além de funções consultivas, e à semelhança da dimensão macro das missões atribuídas ao AI Office, também ao AI Board se acometem importantes funções i) no plano da recolha e da disseminação de conhecimentos e de boas práticas, promoção da literacia, e sensibilização do público[19], e, bem assim, ii) ao nível da coordenação, harmonização e assistência à ação, seja das autoridades nacionais competentes responsáveis pela aplicação do Regulamento, seja de entidades com atuação nos domínios da segurança dos produtos, da cibersegurança, da concorrência, dos serviços digitais e de comunicação social, dos serviços financeiros, da defesa dos consumidores, dos dados e da proteção dos direitos fundamentais (cf. considerando 149 do Regulamento).

O fórum consultivo (‘Advisory Forum’)

O fórum consultivo (‘Advisory Forum’ – cf. artigo 67.º) traduz o propósito de assegurar a participação das partes interessadas na execução e aplicação do Regulamento, objetivo esse com respaldo na respetiva composição. Os membros do fórum consultivo, nomeados pela Comissão Europeia para um mandato de dois anos, suscetível de prorrogação por um período não superior a quatro anos (cf. artigo 67.º, n.os 3 e 4 do Regulamento), deverão corresponder a uma seleção variada e equilibrada de interesses comerciais e não comerciais, com inclusão da indústria, das empresas em fase de arranque, de pequenas e médias empresas (‘PME’), da academia, da sociedade civil, incluindo os parceiros sociais, bem como a Agência dos Direitos Fundamentais, a Agência da União Europeia para a Cibersegurança (‘ENISA’), o Comité Europeu de Normalização (‘CEN’), o Comité Europeu de Normalização Eletrotécnica (‘CENELEC’) e o Instituto Europeu de Normalização das Telecomunicações (‘ETSI’) (cf. artigo  67.º, n.º 2 e n.º 5). Poderão também ser convidados peritos e outras partes interessadas para as reuniões.

Reunindo pelo menos duas vezes por ano, este fórum tem por missão prestar aconselhamento e facultar conhecimentos técnicos especializados ao Comité e à Comissão (cf. artigo 67.º, n.º 1 e considerando 150 do Regulamento), para o que poderá elaborar pareceres, recomendações e contributos escritos (cf. artigo 67.º, n.º 8 do Regulamento). À semelhança do Comité, cabe ao fórum elaborar o seu próprio regulamento interno, eleger dois copresidentes de entre os seus membros, e decidir sobre a criação de subgrupos temporários ou permanentes (cf. artigo 67.º, n.º 6 e 9 do Regulamento).

O painel científico de peritos independentes

O painel científico de peritos independentes (‘painel científico’ – cf. artigo 68.º do Regulamento), criado por ato de execução da Comissão Europeia, e composto por peritos independentes selecionados pela Comissão, com base nos respetivos conhecimentos científicos ou técnicos atualizados no domínio da IA[20], traduz, por seu turno, a importância da integração da comunidade científica no sistema de governance europeu. A sua intervenção dirige-se, sobretudo, aos modelos de IA de finalidade geral (cf. considerando 163 do Regulamento), em relação aos quais apoiará o Serviço para a IA na aplicação e execução do Regulamento[21], inter alia, através de pedidos de informações[22] e de alertas qualificados na origem de investigações e de outras ações de seguimento (cf. artigo 90.º do Regulamento).

A Autoridade Europeia para a Proteção de Dados

Ao contrário das realidades orgânicas referidas, criadas ex novo para efeitos específicos da aplicação e execução do AI Act, a Autoridade Europeia para a Proteção de Dados (‘AEPD’) é uma autoridade independente de controlo já conhecida no ordenamento jurídico da União. Criada pelo Regulamento (CE) n.º 45/2001[23], tem por missão o controlo do tratamento de dados pessoais pelas instituições e pelos órgãos da União no âmbito de aplicação do direito da União. A sua intervenção na estrutura de governance europeia resulta da respetiva atuação como autoridade de fiscalização do mercado relativamente às instituições, órgãos e organismos da União (com exceção do Tribunal de Justiça da União Europeia no exercício das suas funções jurisdicionais) (cf. artigo 74.º, n.º 9 do Regulamento), aos quais poderá aplicar coimas, tendo em conta os elementos elencados no n.º 1 e os limiares de coima dos n.os 2 a 4 do artigo 100.º do Regulamento (cf. considerando 168 do Regulamento).

Em linha com o que prevê o artigo 32.º, n.º 3 do Regulamento que cria a AEPD e, bem assim, o artigo 64.º do Regulamento (UE) 2018/1725[24], no que se refere à recorribilidade das decisões desta autoridade para o Tribunal de Justiça, o legislador europeu assinala um conjunto de garantias procedimentais (o direito de pronúncia a uma comunicação de objeções, anterior a uma decisão de aplicação de uma coima) e processuais (os direitos de defesa e de acesso ao processo) que se aplicam às instituições, órgãos e organismos da União visados, independentemente, pois, da sua natureza não humana, e da sua qualidade-condição de autoridades públicas.

Ainda assim, não deixa a sua particular natureza enquanto Visadas de explicar a norma referente ao produto das coimas aplicadas que, revertendo para o orçamento geral da União, não poderão, em qualquer caso, ser de molde a afetar a eficácia do funcionamento da instituição, órgão ou organismo da União visados (cf. n.º 6 do artigo 100.º do Regulamento). O resultado é uma margem discricionária mais limitada, no contexto das balizas que resultam já dos limiares de coima especificamente previstos no preceito, ora para o incumprimento das proibições do artigo 5.º (1 500 000 EUR), ora para a não conformidade do sistema com quaisquer outros requisitos ou obrigações (750 000 EUR) (cf. artigo 100.º, n.os 2 e 3 do Regulamento).

O futuro do sistema de governação europeu

A centralidade do plano europeu de governance não elimina a importância das autoridades nacionais competentes, que, como antecipado, deverão corresponder a, pelo menos, i) uma autoridade notificadora, responsável por estabelecer e executar os procedimentos necessários para a avaliação, a designação, a notificação e a fiscalização de organismos de avaliação da conformidade[25], e ii) uma autoridade de fiscalização do mercado[26], responsável por um conjunto de atividades e de medidas necessárias para assegurar o cumprimento do Regulamento e a garantia dos direitos e interesses públicos por ele prosseguidos[27]. Em particular, as últimas gozarão de uma série de poderes de execução e de prerrogativas típicas de ius imperii que as converterão em verdadeiras faces e motores do poder[28]. Entre elas, encontram-se as de i) solicitar elementos e informações (e a obtenção de cópias), independentemente da respetiva forma, suporte ou local de armazenamento; ii) conduzir inspeções no local e realizar controlos físicos de produtos, sem aviso prévio; iii) entrar em quaisquer instalações, terrenos ou meios de transporte utilizados para fins relacionados com atividade do operador; iv) iniciar investigações em casos de não conformidade; v) exigir a adoção de medidas corretivas ou adequadas a eliminar o risco, e agir (nomeadamente proibindo ou restringindo a disponibilização do produto no mercado, ou exigindo a respetiva retirada ou recolha) em caso de inércia ou insuficiência das medidas adotadas pelo operador económico; vi) aplicar sanções; e vii) adquirir amostras de produtos para obtenção de elementos de prova, inclusive sob identidade falsa.

A dimensão transfronteiriça dos sistemas de IA e a necessidade de criação de capacidade, conhecimentos, escala e união, tendo em conta os desideratos de i) “previsão de um regime jurídico uniforme, em particular para o desenvolvimento, a colocação no mercado, a colocação em serviço e a utilização de sistemas de inteligência artificial (sistemas de IA) na União”, ii) “em conformidade com os valores da União, a fim de promover a adoção de uma inteligência artificial (IA) centrada no ser humano e de confiança”, iii) “assegurando simultaneamente um elevado nível de proteção da saúde, da segurança, dos direitos fundamentais consagrados na Carta dos Direitos Fundamentais da União Europeia («Carta»), nomeadamente a democracia, o Estado de direito e a proteção do ambiente, a proteção contra os efeitos nocivos dos sistemas de IA na União, e de apoiar a inovação”, além de iv) assegurar “a livre circulação transfronteiriça de produtos e serviços baseados em IA, evitando assim que os Estados-Membros imponham restrições ao desenvolvimento, à comercialização e à utilização dos sistemas de IA” (cf. considerando 1 do Regulamento, com realces), justificam, porém, a necessidade de uma arquitetura que, pese embora complexa, se compreende como ato de síntese entre a descentralização e a concentração, e entre esta e o policentrismo.

O legislador europeu procurou traduzir a ambição dos referidos objetivos numa arquitetura de governação complexa, que exigirá um intercâmbio e um diálogo contínuos entre os planos horizontal – entre autoridades nacionais competentes – e vertical – entre estas e as estruturas europeias. Seja através de soluções orgânicas (por exemplo, a participação das autoridades nacionais no AI Board), seja por força de preceitos particulares que, em caso de dissídio, atribuem à Comissão Europeia o papel de árbitro-moderador (cf., inter alia, o procedimento de salvaguarda da União, no artigo 81.º do Regulamento), o caráter misto do modelo resulta evidenciado.

Com ele surgem naturais desafios, seja ao nível da gestão da multiplicidade de conflitos associados à presença de diferentes interesses e de diferentes stakeholders, seja na articulação das diferentes velocidades e dos diferentes contextos jurídico-político nacionais que, em homenagem ao princípio da identidade constitucional e da autonomia processual, não poderão deixar de ser considerados, em diálogo com o princípio da efetividade e do primado. Para que isso ocorra, deverão os intervenientes estar conscientes do seu papel, função e limites (competenciais).

[1] Regulamento (UE) 2024/1689 do Parlamento Europeu e do Conselho, de 13 de junho de 2024, que cria regras harmonizadas em matéria de inteligência artificial e que altera os Regulamentos (CE) n.° 300/2008, (UE) n.° 167/2013, (UE) n.° 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e as Diretivas 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (Regulamento da Inteligência Artificial) PE/24/2024/REV/1, JO L, 2024/1689, 12.7.2024, ELI: http://data.europa.eu/eli/reg/2024/1689/oj.

[2] Cf., inter alia, Comissão Europeia, ‘A proteção de dados enquanto pilar da capacitação dos cidadãos e a abordagem da UE para a transição digital – dois anos de aplicação do Regulamento Geral sobre a Proteção de Dados’, Comunicação da Comissão ao Parlamento Europeu e ao Conselho, COM(2020) 264 final, e, em particular, o Documento de trabalho dos serviços da Comissão que acompanha essa Comunicação [SWD(2020) 115 final], in: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52020SC0115, ambos por referência ao Regulamento (UE) 2016/679 do Parlamento Europeu e do Conselho, de 27 de abril de 2016, relativo à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais e à livre circulação desses dados e que revoga a Diretiva 95/46/CE (Regulamento Geral sobre a Proteção de Dados) JO L 119 de 4.5.2016, p. 1-88, ELI: http://data.europa.eu/eli/reg/2016/679/2016-05-04.

[3] A Comissão está, aliás como as autoridades nacionais competentes em relação aos sistemas de IA sob a sua alçada, vinculada ao princípio da proporcionalidade e ao respeito pelos direitos processuais dos visados (que deverão ser pormenorizados em atos de execução (cf. artigo 101.º, n.os 1-3 e 6 do Regulamento).

[4] Cf. Decisão da Comissão, de 24 de janeiro de 2024, que cria o Serviço Europeu para a Inteligência Artificial, C/2024/390, JO C, C/2024/1459, 14.2.2024, ELI: http://data.europa.eu/eli/C/2024/1459/oj.

[5] A centralidade do Serviço para a IA não nega, saliente-se, a relevância do Painel científico de peritos independentes, a quem se reconhece a missão de apoiar as atividades de acompanhamento do primeiro, podendo, ainda, e em certos casos, emitir alertas qualificados de riscos sistémicos associado a um modelo de IA de finalidade geral (cf. artigo 90.º e considerando 163 do Regulamento).

[6] A título de exemplo da importância desses direitos, prevê o Regulamento, no seu artigo 52.º, n.º 6, que a publicação, pela Comissão, da lista de modelos de IA de finalidade geral com risco sistémico, não poderá ignorar a “necessidade de observar e proteger os direitos de propriedade intelectual e as informações comerciais de caráter confidencial ou segredos comerciais, em conformidade com o direito da União e o direito nacional.”

[7] Para as noções de recolha e retirada, veja-se o artigo 3.º, pontos 22) e 23) do Regulamento n.º 2019/1020 (infra).

[8] Durante este diálogo, será possível ao prestador, inter alia, propor compromissos para fazer face a um risco sistémico ao nível da União, os quais poderão ser tornados vinculativos pela Comissão, escudando o prestador da sujeição a outras medidas (cf. artigo 93.º, n.º 3 do Regulamento).

[9] Regulamento (UE) 2019/1020 do Parlamento Europeu e do Conselho, de 20 de junho de 2019, relativo à fiscalização do mercado e à conformidade dos produtos e que altera a Diretiva 2004/42/CE e os Regulamentos (CE) n.° 765/2008 e (UE) n.° 305/2011, PE/45/2019/REV/1, JO L 169 de 25.6.2019, ELI: http://data.europa.eu/eli/reg/2019/1020/2024-05-23.

[10] Estão em causa requisitos, ora já previstos no Regulamento apenas para os sistemas de risco elevado (e que se pretendem aplicáveis a sistemas que não o sejam), ora nele não previstos, e contendentes, por exemplo, com os elementos das Orientações Éticas da União para uma IA de Confiança; a sustentabilidade ambiental; as medidas de literacia no domínio da IA; a conceção e o desenvolvimento inclusivos e diversificados de sistemas de IA (com particular atenção às pessoas vulneráveis e à acessibilidade dos cidadãos portadores de deficiência); a participação das partes interessadas na conceção e desenvolvimento de sistemas de IA (incluindo as organizações empresariais e da sociedade civil, o meio académico, as organizações de investigação, os sindicatos e as organizações de defesa dos consumidores); e a diversidade das equipas de desenvolvimento (cf. artigo 95.º do Regulamento).

[11] Cf. https://ec.europa.eu/transparency/expert-groups-register/screen/expert-groups/consult?lang=en&groupID=3966 e, em particular, https://ec.europa.eu/transparency/expert-groups-register/core/api/front/expertGroupAddtitionalInfo/52631/download.

[12] A primeira ocorreu a 19 de junho de 2024 – cf. https://digital-strategy.ec.europa.eu/en/news/commission-hosts-high-level-meeting-upcoming-eus-ai-board-drive-ai-act-implementation-forward.

[13] Os Estados-Membros têm flexibilidade na escolha dos seus representantes, contanto que se trate de “quaisquer pessoas pertencentes a entidades públicas que deverão ter as competências e os poderes pertinentes para facilitar a coordenação a nível nacional e contribuir para o desempenho das funções do Comité.” (cf. e artigo 65.º, n.º 4 e considerando 149 do Regulamento). Podem, ainda, designar um suplente (cf. artigo 2.º, n.º 3 do Regulamento interno do Comité).

[14] Cf. artigo 3.º, n.º 3 do Regulamento interno do Comité. A convite do Comité, podem, ainda, participar outras autoridades, organismos ou peritos nacionais – cf. artigo 8.º do Regulamento interno do Comité.

[15] Vd., também, artigo 9.º do Regulamento interno do Comité, prevendo, nos n.os 3 e 4 a possibilidade de conceder o estatuto de observador, quer a países candidatos e a países terceiros, quer a indivíduos, organizações ou entidades públicas. Os observadores não têm, em qualquer caso, direito de voto (cf. artigo 9.º, n.º 6 do Regulamento interno do Comité).

[16] Os representantes do fórum consultivo poderão ser convidados a participar nestes subgrupos, na qualidade de observadores.

[17] Na aceção do artigo 30.º do Regulamento (UE) 2019/1020 (cf. artigo 65.º, n.º 6 do Regulamento e considerando 149). Saliente-se que, nos termos do Regulamento (UE) 2019/1020, a participação ativa das autoridades de fiscalização do mercado nos Grupos de Cooperação Administrativa (ADCO – administrative cooperation groups) compreende-se à luz da missão que lhes é especialmente atribuída: facilitar a aplicação uniforme da legislação de harmonização da União. Para o efeito, e em particular para garantir essa comunicação e coordenação entre autoridades homólogas noutros Estados-Membros, espera-se daquelas uma participação ativa, complementada pelo apoio administrativo e financeiro da Comissão (cf. considerando 55 e artigos 11.º, n.º 8; 30.º, n.º 2; 32.º e 33.º do Regulamento (UE) 2019/1020).

[18] Cf. artigo 66.º e considerando 149 do Regulamento.

[19] Note-se, em particular, a particular missão que lhe é reconhecida, de apoio à Comissão Europeia na “promoção de ferramentas de literacia no domínio da IA, da sensibilização do público e da compreensão das vantagens, riscos, garantias, direitos e obrigações relacionados com a utilização de sistemas de IA” (cf. considerando 20 do Regulamento).

[20] A Comissão deverá ter em conta, de igual modo, exigências de representação equitativa em termos de género e no plano geográfico. Os peritos deverão desempenhar as suas funções com imparcialidade e objetividade e assegurar a confidencialidade das informações e dos dados obtidos – cf. artigo 68.º, n.os 2 e 4 e considerando 151 do Regulamento.

[21] Esta intervenção principal não prejudica o apoio ou o recurso a peritos do painel científico pelos Estados-Membros (porventura sujeito ao pagamento de honorários) – cf. artigo 69.º e considerando 151 do Regulamento.

[22] Cf. artigo 91.º, n.º 3 do Regulamento.

[23] Cf. Regulamento (CE) n.º 45/2001 do Parlamento Europeu e do Conselho, de 18 de dezembro de 2000, relativo à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais pelas instituições e pelos órgãos comunitários e à livre circulação desses dados, JO L 8 de 12.1.2001, p. 1-22, entretanto revogado pelo Regulamento (UE) 2018/1725 do Parlamento Europeu e do Conselho, de 23 de outubro de 2018, relativo à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais pelas instituições e pelos órgãos e organismos da União e à livre circulação desses dados, e que revoga o Regulamento (CE) n.º 45/2001 e a Decisão n.º 1247/2002/CE, PE/31/2018/REV/1, JO L 295 de 21/11/2018, ELI: http://data.europa.eu/eli/reg/2018/1725/oj.

[24] Regulamento (UE) 2018/1725 do Parlamento Europeu e do Conselho, de 23 de outubro de 2018, relativo à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais pelas instituições e pelos órgãos e organismos da União e à livre circulação desses dados, e que revoga o Regulamento (CE) n.° 45/2001 e a Decisão n.° 1247/2002/CE, PE/31/2018/REV/1, JO L 295 de 21.11.2018, ELI: http://data.europa.eu/eli/reg/2018/1725/oj.

[25] Cf. artigo 3.º, 19) do Regulamento.

[26] Cf. artigo 70.º e considerando 153 do Regulamento. Caso seja designada mais do que uma autoridade de fiscalização do mercado, o Estado-Membro deverá designar um ponto de contacto único.

[27] Cf. artigo 70.º, n.º 1 do Regulamento. Para a noção de fiscalização do mercado e de autoridade de fiscalização do mercado, cf. artigo 3.º, 3) e 4) do Regulamento (UE) 2019/1020.

[28] De acordo com o artigo 74.º do Regulamento (lido em conjugação com o considerando 156), a execução adequada e eficaz dos requisitos e obrigações estabelecidos no AI Act justifica a aplicação integral do sistema de fiscalização do mercado e de conformidade dos produtos estabelecido no Regulamento (UE) 2019/1020. As referências aí feitas a ‘operador económico’ deverão ser lidas como abarcando todos os operadores nos termos do artigo 2.º do Regulamento, sendo os sistemas de IA abrangidos pelo Regulamento, por seu turno, subsumidos ao referente ‘produto’.