Maria Eduarda Gonçalves

Professora Catedrática do Iscte-Instituto Universitário de Lisboa.
Investigadora Integrada do Dinâmia’CET-Iscte.


Ciberdireito – Liberdades, Direitos e Regulação na Era Digital é a mais recente obra de sua autoria. Obra publicada pelo Grupo Almedina e disponível no mercado desde 05 de Setembro de 2024.

Consulte a obra neste link.


  1. São inegáveis as utilidades associadas às tecnologias digitais (computadores, tablets, smartphones, dispositivos de geolocalização, redes eletrónicas, a emergente Internet das Coisas …) na comunicação entre indivíduos e grupos, no acesso ao conhecimento e à cultura, no exercício das atividades económicas, na prestação dos serviços públicos. Mais ambivalentes se revelam as consequências da exponencial acumulação e interconexão dos dados pessoais, da exploração do trabalho de criadores, artistas e jornalistas ou da proliferação de fake news e outros conteúdos ilícitos ou nocivos nas por ora insuficientemente reguladas plataformas digitais. Tudo isto acontece quando se assiste ao domínio do ciberespaço por poderosos operadores e intermediários de serviços, sendo legítimo o receio de que este novo paradigma interfira seriamente nas liberdades e direitos humanos fundamentais e no funcionamento das democracias.

A União Europeia (UE) é a organização que mais longe tem levado a regulação das tecnologias digitais e da comunicação no ciberespaço. O Regulamento Geral de Proteção de Dados – RGPD (2016), a Diretiva Direitos de Autor e Direitos Conexos no Mercado Único Digital (2020), o Regulamento dos Serviços Digitais (2022), o Regulamento dos Mercados Digitais (2022) e o Regulamento Inteligência Artificial (2023) ressaltam como marcos fundamentais do atual Ciberdireito europeu.  

Poderá, porém, gerar alguma perplexidade o facto de este quadro normativo remeter responsabilidades regulatórias decisivas para os operadores, apadrinhando de certo modo o seu papel como “private rulers”, ao mesmo tempo em que define as responsabilidades destes como devendo consistir, predominantemente, em deveres de devida diligência (due diligence), e na realização de avaliações prévias de impacto ético e de risco como meios de prevenção e mitigação de consequências potencialmente adversas das tecnologias. Esta opção é patente na abordagem baseada no risco seguida pelo RGPD, no encorajamento da Diretiva Direitos de Autor à promoção de acordos entre plataformas e editores, nos deveres de diligência e de transparência prescritos pelo Regulamento Serviços Digitais ou na ênfase do Regulamento Inteligência Artificial em princípios de ordem ética.

O regulador público tende, do mesmo passo, a ser moldado ora como incentivador (quando, por exemplo, incita à adoção de códigos de conduta), ora como supervisor apoiado, designadamente, em sinalizadores de confiança (trusted flaggers) (i.e. entidades especializadas na identificação e notificação de conteúdos ilícitos), ora como instância de último recurso, em moldes que indicam uma mudança assinalável do paradigma regulatório convencional.  Cohen (2016) refere-se a este respeito a uma nova direção do Estado regulador na era do capitalismo informacional, que desafia os modelos convencionais de regulação em prol de modelos apoiados em redes técnico-profissionais.  

  1. A tendência para privilegiar abordagens regulatórias baseadas em princípios (“principle-based approach”) foi já encarada como a melhor forma de conciliar direitos humanos e a desejável flexibilidade na regulação da tecnologia (Council of Europe, 2019). Registe-se, porém, o alerta de Wagner (2018), quando admite que “much of the debate about ethics seems increasingly focused on private companies avoiding regula­tion”.

Se comparado com a Diretiva Comércio Eletrónico (2000), que assenta no princípio de imunidade dos prestadores de serviços de informação pelos conteúdos disponibilizados pelos seus serviços, o novo regime representa, não obstante, um reforço da força vinculativa das obrigações estabelecidas visando, em especial, as plataformas digitais e os motores de pesquisa “de muito grande dimensão” na luta contra conteúdos ilícitos ou nocivos. O Regulamento Serviços Digitais prevê, aliás, a supervisão das plataformas por Coordenadores de Serviços Digitais a designar pelos Estados-Membros e a sujeição das maiores plataformas ao controlo da Comissão Europeia apoiada pelo Centro Europeu para a Transparência dos Algoritmos.

As responsabilidades do sector privado não deixam, porém, de ser configuráveis, na sua essência, como “deveres de diligência relativamente a direitos humanos” (“Human Rights Due Diligence – HRDD”) na linha da fórmula introduzida pelos Guiding Principles on Business and Human Rights aprovados pelo Conselho dos Direitos Humanos das Nações Unidas em 2011. Na definição de John Ruggie, coordenador desta iniciativa, a HRDD representa “a comprehensive, proactive attempt to uncover human rights risks, actual and potential, over the entire life cycle of a project or business activity, with the aim of avoiding and mitigating those risks”.  Como se observou, é fundamentalmente em deveres de avaliação de impacto ético e de avaliação de risco sobre os direitos humanos que se encontra focado o regime europeu.

Subsiste, no entanto, alguma descrença quanto à eficácia, inclusive, da “mandatory Human Rights Due Diligence – mHRDD” recomendada pelas Nações Unidas na linha dos mencionados Guiding Principles e transposta, de certo modo, para a Diretiva (UE) 2024/1760 do Parlamento Europeu e do Conselho de 13 de junho de 2024 relativa ao dever de diligência das empresas em matéria de sustentabilidade. Esta Diretiva tem em vista a adoção de práticas responsáveis e o respeito dos direitos humanos pelas grandes empresas (com volume de negócios acima de €450 milhões) nas suas operações e cadeias de valor globais no quadro das políticas de ambiente e desenvolvimento sustentável, admitindo a aplicação de sanções às empresas pela violação das suas obrigações.

Na opinião de Leite (2023), a mHRDD seria de molde a facultar às empresas a falsa narrativa de que operam em conformidade com os direitos humanos (“cosmetic compliance”, nas palavras de Landau, 2019). Ao financiarem iniciativas em matéria de ética da inteligência artificial, por exemplo, as empresas estariam contribuindo até para retardar o processo legislativo.

  1. A obediência das empresas privadas aos direitos humanos foi reconhecida como um desafio central pelo “Report of the Special Rapporteur on the Promotion and Protection of the Right to Freedom of Opinion and Expression” (Kaye Report, 2018), no qual se recomenda que a regulação dos conteúdos online seja incumbida às empresas aplicando standards de direitos humanos e procedimentos adequados em todos os estádios das suas operações. No mínimo, as empresas e os Estados deveriam melhorar radicalmente a transparência da sua atuação e assegurar a autonomia dos utilizadores, uma vez que os indivíduos exercem cada vez mais os seus direitos online, competindo aos Estados enquadrar a ação das empresas. No mesmo relatório se admite, porém, não ser claro que as empresas estejam protegendo efetivamente os direitos dos utilizadores, apesar das boas intenções que proclamam: “Despite taking steps to illuminate their rules and government interactions, the companies remain enigmatic regulators, establishing a kind of ‘platform law’ in which clarity, consistency, accountability and remedy are elusive”.

Referindo-se ao Facebook, observa Benesch (2020) que conteúdos que deveriam ser normalmente restringidos são, por vezes, mantidos na plataforma quando o Facebook os entende como “de interesse público”, apreciação a que o Facebook procede, declarações da própria rede, tomando em consideração os standards do direito internacional dos direitos humanos, incluindo o artigo 19.º do Pacto Internacional dos Direitos Civis e Políticos.   

É um facto que os maiores operadores tecnológicos têm procurado assumir as suas responsabilidades, reforçando estruturas e mecanismos de verificação de factos e conteúdos. Inicialmente reticentes a formas de regulação convencional com o sabido argumento de que “regulation stifles innovation”, as big tech vêm transigindo quanto à relevância da legislação, como no apelo da Microsoft à regulação legal das tecnologias de reconhecimento facial ou na admissão por Mark Zuckerberg do Facebook da necessidade de algum tipo de regulação dos sistemas “data-driven” de distribuição de conteúdos pelos media sociais.[1]

Os operadores anunciam códigos de ética e definem os seus termos de serviço em moldes que remetem explicitamente para o respeito de direitos fundamentais. Têm, inclusivamente, instituído órgãos internos de supervisão com o objetivo de vigiar os conteúdos comunicados nas plataformas, apelando para esse fim a peritos e à sociedade civil. Um exemplo é o Oversight Board (Comité de Supervisão) da Meta, criado em 2019 e justificado da seguinte forma:

“A missão do Comité de Supervisão é melhorar a maneira como a Meta trata pessoas e comunidades em todo o mundo. Aplicamos os padrões de conteúdo do Facebook, Instagram e Threads de uma forma que protege a liberdade de expressão e outros padrões globais de direitos humanos. Para isso, fazemos uma verificação independente de moderação de conteúdo da Meta, tomando decisões vinculativas sobre as questões de conteúdo mais desafiadoras. Forneceremos recomendações de políticas que incentiva, a Meta a melhorar as regras, agir com mais transparência e tratar todos os utilizadores de forma justa”. [2]

Este Comité constitui uma espécie de segunda instância decisória das decisões de moderação de conteúdos. Financiado pela empresa, é uma entidade independente da Meta composta por peritos da área, sendo a sua principal referência normativa os “Community Standards” do Facebook. [3]

Refira-se ainda o Código de Conduta sobre Desinformação (2022) subscrito por Google, Meta, Microsoft e TikTok, entre outros, que veio precisar compromissos de transparência da publicidade política, obrigações de sinalização de conteúdos ilícitos, esforços para encerrar contas falsas ativas e de cooperação com verificadores de factos e investigadores académicos. Constata-se que estas medidas têm tido impacto no maior destaque dado a fontes de informação credíveis e na disponibilização de ferramentas para denúncia de abusos pelos utilizadores. Os operadores têm publicado relatórios evidenciando que as plataformas estão a melhorar a disponibilização de dados mais pormenorizados e esclarecedores.Pensado como um instrumento de autorregulação, o Código vem sendo na prática reconfigurado como instrumento de corregulação envolvendo a monitorização continuada pela Comissão Europeia do respeito dos compromissos assumidos pelas plataformas.  

  1. Em última análise, só o direito consolidado dos direitos humanos oferecerá um quadro coerente e universal de standards aptos a dar resposta às preocupações normativas da regulação dos serviços digitais e das aplicações da inteligência artificial. É reveladora a convicção de que os media sociais deverão deixar de lado “community guidelines” genéricos e “self-serving” em prol da incorporação do direito dos direitos humanos nos seus padrões de moderação de conteúdos. Neste sentido se pronunciam a Estratégia e o Plano de Ação das Nações Unidas sobre o discurso de ódio e o já mencionado relatório do Special Rapporteur. Questões de legalidade devem ser sujeitas à apreciação por entidades independentes, imparciais e titulares de legítimos poderes de autoridade sob pena de se abrir caminho à “privatização da censura”. Sem prejuízo da transparência dos sistemas de decisão das plataformas, é crucial garantir a supervisão e o controlo externos destes processos e os direitos de acesso por parte, quer da autoridade pública, quer de outras partes interessadas (Metzger et al., 2020).

A esta luz, como explicar a opção da UE por um modelo regulatório do ciberespaço largamente fundado numa ordenação privada e em princípios de ordem ética, ainda que este pareça estar evoluindo para formas de corregulação?  Poderá talvez alegar-se que à dificuldade do regulador de lidar com realidades marcadas por elevada tecnicidade, complexidade e opacidade, ter-se-á aliado o objetivo político estrutural da UE da liberalização do mercado digital europeu.  

Vale a pena assinalar, neste contexto, a emergência de uma linha de argumentação teórica segundo a qual o impacto disruptivo das tecnologias digitais abre caminho a um novo momento constituinte, um constitucionalismo digital, que permita responder ao imperativo de repor os equilíbrios no que respeita às principais funções do direito constitucional, i.e. a proteção dos direitos fundamentais e o controlo dos poderes, mitigando a concentração de poder nos grandes operadores digitais (Gill, Redeker and Gasser, 2015; Suzor, 2020).

Recorde-se que a Internet, espaço por natureza descentralizado, surgiu inicialmente acompanhada pela defesa de uma legalidade específica propensa à realização das liberdades de expressão e da informação e apenas compatível com uma autorregulação. Na mesma ordem de ideias, tenderam a ser rejeitadas formas de regulação consideradas injustificáveis dado o carácter “aberto” desse espaço. A expansão das redes e dos serviços digitais e o poder crescente dos maiores operadores conduziram, ultimamente, na Europa a uma dinâmica legislativa que, ainda que delegando importantes responsabilidades regulatórias nas empresas, aponta para formas de corregulação, que passam pelo encorajamento à adoção e pela remissão para códigos de conduta das empresas (do que se encontram várias ilustrações no RGPD e nos Regulamentos Serviços Digitais e Inteligência Artificial) e não exclui procedimentos formais de acusação e sancionamento visando as plataformas em linha e os motores de busca de muito grande dimensão. Nesta perspetiva, é assinalável a circunstância de a Comissão Europeia ter iniciado, já em 2024, e pela primeira vez, procedimentos formais baseados em alegadas violações do Regulamento Serviços Digitais por operadores de plataformas digitais, incluindo a plataforma X. Estas iniciativas evidenciam o reconhecimento da relevância da ação de controlo pela autoridade pública – no caso, a Comissão Europeia em concertação com os Coordenadores de Serviços Digitais – do respeito pelas big tech das obrigações que lhes são imputadas por força do referido Regulamento.

Acresce que o direito europeu não ignora a responsabilidade que cabe na era digital aos atores sociais, incluindo às organizações não governamentais, às famílias e aos próprios utilizadores, na defesa dos direitos humanos. Emerge, assim, um sistema de regras de natureza diversa e de responsabilidades partilhadas compatível com a ideia do ciberespaço como “global multistakeholder shared space” (Del Campo, 2022).   Reconhecendo-se o dever dos operadores de respeitar os direitos humanos e o dos Estados (e da UE) de prevenir, investigar e punir possíveis violações, parece, todavia, ainda incerto, no âmbito deste “ecossistema interjurisdicional”, como repartir as responsabilidades de oversight das práticas empresariais e que sanções aplicar em caso de incumprimento. O direito dos direitos humanos necessita ainda de ser reconsiderado no contexto da era digital.

Referências

Benesch, S. (2020), “But Facebook’s Not a Country: How to Interpret Human Rights Law for Social Media Companies”, Yale Journal on Regulation Online Bulletin 38: 86, https://www.yalejreg.com/bulletin/but-facebooks-not-a-country-how-to-interpret-human-rights-law-for-social-media-companies/

Cohen, J. E. (2016), “The Regulatory State in the Information Age”, Theoretical Inquiries in Law, 17 (2), 369-414, https://scholarship.law.georgetown.edu/cgi/viewcontent.cgi?article=3552&context=facpub

Council of Europe (2019), Artificial Intelligence and Data Protection: Challenges and Possible Remedies, Report on Artificial Intelligence, by A. Mantelero, T-PD(2018)09Rev, Strasbourg, 25 January

Del Campo, A. (2022), Platform Oversight: A Neglected Link in Internet’s Regulatory Futures, CELE, University of Palermo, Facultad de Derecho, Centro de Estudios en Libertad de Expresión y Acceso a la Información, https://www.palermo.edu/Archivos_content/2022/cele/noviembre/paper-cele/Platform-Oversight.pdf

Gill, L., D. Redeker and U. Gasser (2015), Towards Digital Constitutionalism? Mapping Attempts to Craft an Internet Bill of Rights, Berkman Center Research Publication No. 2015-15, https://ssrn.com/abstract=2687120 

Guiding Principles on Business and Human Rights, Implementing  the United Nations “Protect, Respect and Remedy” Framework, United Nations Human Rights Office of the High Commissioner, New York and Geneva, 2011, https://www.ohchr.org/sites/default/files/documents/publications/guidingprinciplesbusinesshr_en.pdf 

Landau, I. (2019), “Human rights due diligence and the risk of cosmetic compliance”, Melbourne Journal of International Law 20 (1), https://classic.austlii.edu.au/au/journals/MelbJIL/2019/9.html

Leite, M. (2023), “Beyond Buzzwords: Mandatory Human Rights Due Diligence and a Rights-Based Approach to Business Models”, Business and Human Rights Journal 8 (2), 197-212, https://www.cambridge.org/core/journals/business-and-human-rights-journal/article/abs/beyond-buzzwords-mandatory-human-rights-due-diligence-and-a-rightsbased-approach-to-business-models/4C1FB2854598944091D7ABCAB1E739B1

Metzger, M., T. Navichoque and K. Wainscott (2020),  Human Rights and Government Regulation of Digital Platforms, Global Digital Policy Snapshot, Stanford, Cyber Policy Center, September, https://fsi-live.s3.us-west-1.amazonaws.com/s3fs-public/snapshot_iv_human_rights_and_government_regulation_of_digital_platforms.pdf

Report of the Special Rapporteur on the Promotion and Protection of the Right to Freedom of Opinion and Expression, 14, A/ HRC/38/35 (Kaye Report), April 6, 2018, https://digitallibrary.un.org/record/1631686?v=pdf

Report of the Special Representative of the Secretary-General on the Issue of Human Rights and Transnational Corporations and Other Business Enterprises, John Ruggie: Guiding Principles on Business and Human Rights: Implementing the United Nations ‘Protect, Respect and Remedy’ Framework,A/HRC/17/31, Geneva: United Nations, 21 Mar. 2011, https://digitallibrary.un.org/record/705860 

Suzor, N. (2020), “A constitutional moment: How we might reimagine platform governance”, Computer Law & Security Review 36, April, 105381, 1-4, https://www.sciencedirect.com/science/article/abs/pii/S0267364919303929  

The 2022 Code of Practice on Disinformation, https://digital-strategy.ec.europa.eu/en/policies/code-practice-disinformation; https://digital-strategy.ec.europa.eu/en/news/code-practice-disinformation-new-reports-available-transparency-centre

United Nations Strategy and Plan of Action on Hate Speech, 2019, https://www.un.org/en/genocideprevention/documents/advising-and-mobilizing/Action_plan_on_hate_speech_EN.pdf  

Wagner, B. (2018), “Ethics as an escape from regulation: From ethics-washing to ethics-shopping?”, in M. Hildebrandt et al. (ed.), Being Profiling. Cogitas Ergo Sum, Amsterdam: Amsterdam University Press, 84-88, https://www.researchgate.net/publication/338271524_Ethics_As_An_Escape_From_Regulation_From_Ethics-Washing_To_Ethics-Shopping  


[1] Brad Smith, “Facial recognition technology: The need for public regulation and corpo- rate responsibility”, Jul. 13, 2018, https://blogs.microsoft.com/on-the-issues/2018/07/13/facial-recognition-technology-the-need-for-public-regulation-and-corporate-responsibility/; “Facebook’s Zuckerberg says regulation of social media firms is ‘inevitable’”, Apr. 11, 2018, https://www.cbc.ca/news/science/facebook-zuckerberg-users-privacy-data-mining-house- hearings-1.4614174

[2] https://www.oversightboard.com/

[3] Não deixa de ser curioso o recurso a “metáforas constitucionais” como, por exemplo, a da qualificação do Oversight Board da Meta como o “Supreme Court” do Facebook. Cf. “Facebook’s New ‘Supreme Court’ – The Oversight Board and International Human Rights Law”, by  Elin Hofverberg, March 16, 2021, https://blogs.loc.gov/law/2021/03/facebooks-new-supreme-court-the-oversight-board-and-international-human-rights-law/