Sofia Alcaide
Advogada. Licenciada em Direito e Mestre em Direito dos Contratos e da Empresa, pela Escola de Direito da Universidade do Minho. Com especial interesse na área de Direito Civil, Direitos Humanos e Inteligência Artificial.
O desenvolvimento da tecnologia implica, sempre ou quase sempre, a alteração de legislação ou a produção de novas normas, por forma a fazer face às suas inovadoras implicações. Nesta equação, a regra tem por hábito ser a de a tecnologia ser aplicada na prática, passar a ser utilizada e apenas depois, analisadas as suas implicações na vida prática e os problemas que eventualmente suscita, efetuarem-se as necessárias alterações legislativas ou produzirem-se novos dispositivos normativos. Exemplo real e atual deste paradigma são as criptomoedas.
Sucede que, os veículos autónomos implicam, necessariamente, o envolvimento com direitos fundamentais, como seja o direito à vida, à integridade física, à segurança, à privacidade e à cibersegurança. É necessário recordar que, quando um indivíduo opta por utilizar um veículo autónomo – ainda que este possua um maior ou menor grau de autonomia -, está a permitir que este o substitua em determinadas tomadas de decisão, que poderão, em maior ou menor grau, influir com direitos fundamentais seus. Uma das questões que a utilização de veículos autónomos suscita em grande escala é a capacidade de os sensores de que aqueles vão ser dotados serem capazes de recolherem e interpretarem corretamente a informação por si obtida, de modo a que possam tomar decisões de forma sustentada – vejam-se as situações de ocorrências climatéricas adversas. Há quem defenda inclusivamente que, mediante circunstâncias como esta, o veículo deve requerer ao “condutor” que assuma a tarefa da condução. Estas preocupações conduziram a que a Comissão Europeia propusesse que esta nova tecnologia fosse dotada do sistema “Intelligent Speed Adaption (ISA)”, para cumprimento dos limites legais de velocidade, através da aplicação de limitadores ou avisos aos condutores. Também as questões relacionadas com hacking e falta de privacidade são suscitadas, considerando o difícil controlo dos dados dos utilizadores, ainda que na União Europeia tal já se encontre assegurado, de alguma forma, pelo Regulamento Geral sobre a Proteção de Dados[1].
As preocupações relacionadas com a utilização de veículos autónomos são aguçadas pelos meios de comunicação social, cuja preocupação é, maioritariamente, difundir os eventuais problemas desta nova tecnologia, bem como os acidentes que ocorrem com a sua utilização[2], ao invés de propagarem as vantagens e benefícios que acarreta, em especial, a redução do número de acidentes e a sua gravidade[3] [4].
É por este motivo, e atenta a relevância inequívoca dos direitos fundamentais e sendo a sua proteção crucial, que se considera que a regulação dos veículos autónomos deve ser anterior à permissão de circulação dos veículos autónomos de forma geral e sua utilização pela generalidade da população[5]. Neste sentido, a referência ao respeito obrigatório pelos diversos diplomas de consagração de direitos fundamentais tem sido constante nos vários textos de propostas legislativas da inteligência artificial, designadamente os provenientes da União Europeia, como seja a “Proposta de Regulamento do Parlamento Europeu e do Conselho que Estabelece Regras Harmonizadas em Matéria de Inteligência Artificial (Regulamento Inteligência Artificial) e Altera Determinados Atos Legislativos da União” que refere, por várias vezes, na exposição dos motivos da proposta, a necessidade de garantir aos cidadãos que a inteligência artificial se desenvolva de modo respeitador face aos direitos fundamentais. Direitos fundamentais e ética encontram-se intrinsecamente ligados: veja-se que no documento formulado pelo Grupo Independente de Peritos de Alto Nível Sobre a Inteligência Artificial, criado pela Comissão Europeia em Junho de 2018, designado por “Orientações Éticas para uma IA de Confiança”, além de se referir no considerando 35 que os direitos fundamentais devem estar subjacentes à inteligência artificial, é expressamente mencionado no considerando 37 que a abordagem ética deve ser “baseada nos direitos fundamentais”, consagrados nos mais diversos textos legislativos europeus e internacionais[6]. São os direitos fundamentais que possibilitam identificar os valores ético-morais pelos quais a sociedade se guia, pelo menos, de forma abstrata.
O Grupo Independente de Peritos da Alto Nível Sobre a Inteligência Artificial parte de cinco direitos fundamentais, por si considerados como passíveis de abrangerem os desafios colocados pela inteligência artificial, para estabelecer quatro princípios éticos cruciais para o desenvolvimento desta última[7] [8]. Os direitos fundamentais que subjazem aos princípios éticos são, de forma sucinta, os seguintes: O respeito pela dignidade da pessoa humana – os sistemas de inteligência artificial devem ser desenvolvidos por forma a que o valor humano não seja diminuído, isto é, que as pessoas não sejam objetificadas ou alvo de manipulação, protegendo-se a sua integridade mental e física;
1 – O respeito pela liberdade do Homem – pretende garantir a igualdade de acesso às vantagens da inteligência artificial, respeitando a capacidade decisória dos indivíduos e garantindo-lhes o controlo da sua vida e da sua privacidade;
2 – Garantia dos processos democráticos, respeito pela justiça e Estado de Direito – que se consagra através da proibição de a inteligência artificial inferir nos processos democráticos, garantindo a liberdade de escolha dos indivíduos;
3 – Proibição de não discriminação e garantia dos direitos de igualdade e solidariedade – o principal objetivo deste direito fundamental é a proteção dos grupos mais fragilizados da sociedade e minorias;
4 – Garantia dos diferentes direitos dos cidadãos – entre os quais o acesso a uma boa e suficiente administração, cuja melhoria poderá ser incrementada pelos sistemas de inteligência artificial.
Estes direitos fundamentais conduziram ao elenco, não ordenado, dos seguintes princípios éticos, considerados cruciais:
i) Respeito pela liberdade e autonomia humanas – a inteligência artificial deve ser desenvolvida partindo do princípio de concentração no ser humano e seu respeito, evitando qualquer forma da sua manipulação ou coação, permitindo-lhe toda a autodeterminação possível e o controlo dos sistemas de IA;
ii) “Princípio da prevenção de danos” – os sistemas de inteligência artificial devem ser desenvolvidos tendo em vista, especialmente, a prevenção de danos, evitando-se acidentes e situações de risco. Tal vai ao encontro do respeito pela dignidade da pessoa humana, procurando garantir que os sistemas de inteligência artificial não são acessíveis a estranhos, assim como se pretende garantir a inclusão dos mais vulneráveis;
iii) Equidade – no sentido da não discriminação, igualdade de oportunidades e de acesso aos sistemas de inteligência artificial, podendo estes servir como fonte de promoção da igualdade entre grupo;
iv) “Princípio da explicabilidade” ou transparência – os processos de inteligência artificial devem ser transparentes, bem como os seus fins e objetivos, devendo poder aceder-se e entender os mecanismos das tomadas de decisão.
Contudo, ainda que partindo de direitos fundamentais se consigam determinar princípios ético-morais que subjazam ao desenvolvimento dos sistemas de inteligência artificial, estes sempre serão abstratos, como se refere no considerando 37 do documento formulado pelo Grupo Independente de Peritos[9].
Esta referência a princípios éticos abstratos também é feita no artigo 8.º do Código de Ética Alemão, onde se menciona que o comportamento dos sistemas de inteligência artificial não podem ser padronizados, nem programados de forma a que sejam eticamente inquestionáveis, uma vez que também não é possível prever ou programar o comportamento de um motorista humano dotado de ética[10]. É exatamente pela falta da dimensão ético-humana que a dotação dos sistemas de inteligência artificial de princípios ético-morais será sempre feita de forma abstrata. O que sucederá é a existência ou não de culpa nas tomadas de decisão, à semelhança do que acontece com a condução convencional e responsabilização pelos danos que daí advenham. Neste mesmo Código, são feitas também referências ao objetivo da inteligência artificial nos veículos autónomos – o alcance da segurança na mobilidade dos indivíduos -, a proteção humana individualmente considerada, sendo esta precedente a qualquer consideração utilitária/de minimização dos danos, a necessidade de autorização para que um veículo autónomo possa circular – uma vez que a sua utilização generalizada ainda não é permitida -, a proteção da liberdade do indivíduo, designadamente nas suas tomadas de decisão, bem como os fundamentos essenciais de prevenção e minimização de danos, evitabilidade de danos em pessoas e a proibição de discriminação, assente em critérios como a idade, género, constituição física ou mental.
A verdade é que, ainda que se preveja que os acidentes ocorram em número consideravelmente inferior e com menor gravidade, pressupondo-se que os danos sejam maioritariamente materiais, a verdade é que, certamente, os veículos autónomos irão ser confrontados com ocasiões dilema, nos quais terão de optar atingir, eventualmente, uma ou outra pessoa. É nestas situações que se colocam maiores problemas. Nestas situações limite, como deverá o sistema de inteligência artificial ser programado, de modo que tome uma decisão? Para dar resposta a esta questão, produtores e legisladores serão confrontados com três grandes desafios: tomarem decisões consistentes; não criarem choque na sociedade com as suas opções de programação/legislação; e não desencorajar os futuros utilizadores/consumidores, nem o desenvolvimento tecnológico[11].
Foi no sentido de se entenderem as opções ético-morais dos futuros utilizadores/consumidores que se foram realizando vários estudos, de modo a percecionar o caminho a seguir na programação dos veículos autónomos em situações limite. Até porque se apresenta como sendo essencial incluir a sociedade nestas questões, sob pena de os veículos autónomos não serem aceites por falta de confiança nesta nova tecnologia. Um dos estudos mais falados e conhecido foi o designado “The Moral Machine Experiment (MME)”, que consistia numa plataforma experimental online, que reuniu mais de 40 milhões de decisões, tomadas por pessoas de mais de 233 países. As principais preferências dos voluntários puderam centrar-se em três grandes grupos: poupar pessoas ao invés de animais – vida humana como centro da inteligência artificial; poupar um maior número de vidas – visão utilitária, de minimização de danos; poupar jovens ao invés de velhos. Comparando estes resultados com o Código de Ética Alemão, verifica-se a coincidência com dois dos seus artigos: o art.º 7.º, que estabelece a vida humana como sendo prioritária; e o art.º 9.º, no qual se estabelece a visão utilitária, sem, contudo, serem identificadas as situações em que tal deverá ser aplicado. O art.º 9.º estabelece, ainda, proibições de discriminação, designadamente em função da idade, o que colide com a opção maioritária de proteger os mais novos[12].
Este estudo permitiu, ainda, verificar que as considerações individuais de cada pessoa, referentes a religião, idade, sexo, educação e opções políticas, têm pouco reflexo nas respostas colocadas. Da mesma forma, foi possível identificar três vetores culturais homogéneos: o 1.º grupo, constituído pela América do Norte e maioria dos países europeus protestantes, católicos e ortodoxos, englobando, ainda, sub-grupos da Escandinávia e Commonwealth; o 2.º grupo constituído pelos países de leste, como Japão e Taiwan e os países do Confúcio Group, bem como países islâmicos (Indonésia, Paquistão e Arábia Saudita); por último, o 3.º grupo é referente à América Latina, América do Sul e América Central. Esta divisão sugere que estes grupos poderão adotar preferências éticas semelhantes[13].
Existem, contudo, duas questões que devem preocupar os legisladores e que serão um obstáculo a uma ética universal: existem diferenças sistemáticas entre culturas “individualistas” e “coletivistas” – as culturas individualistas, que dão ênfase ao valor individual da pessoa humana, demonstram maior preferência em poupar um maior número de vidas; as culturas coletivistas, que demonstram maior apreço por pessoas mais velhas da comunidade, demonstram menos vontade de proteger os mais novos, o que coincide com as escolhas do 2.º Grupo de países. São duas questões consideradas fundamentais e, em simultâneo, vistas como entraves, no alcance de princípios ético-morais universais. Por outro lado, quase todos os participantes demonstraram maior preferência em proteger as mulheres[14].
De forma oposta, um outro estudo, levado a cabo por Yochanan E. Bigman e Kurt Gray, sugere que as conclusões obtidas através do “Moral Machine Experiment” são enviesadas, considerando a forma de formulação das questões, sendo a sua metodologia insensível a preferências por opções igualitárias, obrigando a escolher uma ou outra vida[15]. Ora, se os resultados da MME sugerem que as pessoas pretendem fazer diferenciação entre vidas humanas – matar velhos em vez de jovens, e homens ao invés de mulheres, este estudo pretende mostrar que aquelas são conclusões falaciosas.
Neste estudo, conclui-se que os seus participantes optaram, maioritariamente, por tratar as vidas de forma igual, ignorando diferenças de género, idade e status. Este estudo inicia por referir que os resultados do MME violam as disposições das diversas Constituições dos Estados, a Declaração Universal dos Direitos do Homem e, até, o Código de Ética Alemão – realçamos, porém, que este não é de adoção obrigatória, constituindo-se apenas algumas recomendações/orientações. Posteriormente, assumem que os seus resultados foram em tudo semelhantes aos do MME, quando colocaram questões em que era obrigatório ao participante escolher entre uma ou outra vida, sem lhe ser dada a possibilidade de tratar as vidas de forma igualitária[16].
Nas questões em que a equidade foi colocada como uma terceira opção de resposta, denotou-se que esta foi, repetidamente, a opção escolhida pelos participantes. Veja-se o seguinte exemplo: numa situação em que o veículo autónomo tivesse de optar por matar um homem ou uma mulher, 87,7% dos participantes optou por proteger as mulheres; quando foi introduzida a possibilidade de se tratarem homens e mulheres de forma igual, devendo o veículo não tomar nenhuma decisão e matar por inação, esta opção foi selecionada por 97,9% dos participantes.
Assim, concluem que o caminho a adotar poderá ser o de os veículos autónomos ignorarem características pessoais, devendo a ética basear-se em aspetos estruturais, como salvar o maior número de pessoas e matar por inação em vez de por ação[17].
Por último, alguns estudos têm apontado que, apesar de, grosso modo, as pessoas optarem por uma visão utilitária/de minimização de danos face aos veículos autónomos, a verdade é que, simultaneamente, manifestam maior interesse num veículo que opte por proteger os seus passageiros, o que poderá contender com aquela opção utilitária. Ora, esta não será um problema fácil de resolver, pois que a adoção de uma visão meramente utilitária poderá desencorajar os consumidores a adquirirem um veículo autónomo, bem como esmorecerá o desenvolvimento tecnológico[18].
Ainda que se preveja que estas sejam situações raras, considerando a diminuição do número de acidentes e a sua gravidade, esperando-se que exista um considerável número inferior de danos em pessoas, a verdade é que são situações que devem ser acauteladas e às quais urge dar resposta, uma vez que os cidadãos precisam de conhecer os princípios ético-morais com que os veículos autónomos são programados, não apenas por uma questão de transparência, mas também para poderem confiar e utilizar esta nova tecnologia.
Não podendo retirar, ainda, concretas conclusões acerca de quais os princípios a adotar e como deverão os veículos autónomos atuar em situações limite, certo é que nos parece ser absolutamente essencial envolver a população, permitindo que esta contribua e se manifeste face aos princípios de que estes novos veículos deverão ser dotados.
Relativamente a
eventuais questões de responsabilidade civil, acerca de quem responderá por
eventuais danos que se venham a verificar, poderá ser consultada a minha
dissertação de mestrado, intitulada “A Responsabilidade Civil por Danos
Causados por Veículos Autónomos”, que se encontrará brevemente para venda na
Almedina.
[1] https://www.ceeol.com/search/article-detail?id=899686
[2] Ethics of Artificial Intelligence and Robotics (Stanford Encyclopedia of Philosophy)
[3] Jean-François Bonnefon, Azim Shariff, Iyad Rahwan, «The social dilemma of autonomous vehicles» [Em Linha], Science, Vol. 352, N.º 6293, junho, 2016, p. 1573, disponível em The social dilemma of autonomous vehicles (science.org), consultado em 23/10/2021.
[4] Este e outros benefícios encontram-se especificados na dissertação de mestrado intitulada «A Responsabilidade Civil por Danos Causados por Veículos Autónomos», por mim redigida, que será disponibilizada pela Almedina para venda em novembro deste ano.
[5] https://www.ceeol.com/search/article-detail?id=899686
[6] Grupo Independente de Peritos de Alto Nível Sobre a Inteligência Artificial, «Orientações éticas para uma IA de confiança» [Em Linha], pp. 11-12, disponível em Orientações éticas para uma IA de confiança – Publications Office of the EU (europa.eu), consultado em 23/10/2021.
[7] Idem, pp. 12-16.
[8] Também referidos no ponto 3.5 da exposição de motivos da Comissão Europeia, «Proposta de Regulamento do Parlamento Europeu e do Conselho que Estabelece Regras Harmonizadas em Matéria de Inteligência Artificial (Regulamento Inteligência Artificial) e Altera Determinados Atos Legislativos da União» [Em Linha], disponível em https://eur-lex.europa.eu/legal-content/PT/TXT/HTML/?uri=CELEX:52021PC0206&from=EN, consultado em 23/10/2021.
[9] Grupo Independente de Peritos de Alto Nível Sobre a Inteligência Artificial, «Orientações éticas para uma IA de confiança», ob. cit., p. 12.
[10] Christoph Lṻtge, «The German Ethics Code for Automated and Connected Driving» [Em Linha], Philosophy & Technology, Springer, Vol. 30, setembro, 2017, p. 554, disponível em https://link.springer.com/article/10.1007/s13347-017-0284-0, consultado em 23/10/2021.
[11] Jean-François Bonnefon, Azim Shariff, Iyad Rahwan, «The social dilemma of autonomous vehicles», ob. cit., p. 1573.
[12] Edmond Awad, Sohan Dsouza, Richard Kim, Jonathan Schulz, Joseph Henrich, Azim Shariff, Jean-François Bonnefon, Iyad Rahwan, «The Moral Machine experiment» [Em Linha], Nature, Vol. 563, novembro, 2018, pp. 59-60, disponível em The Moral Machine experiment | Nature, consultado em 23/10/2021.
[13] Idem, p. 61.
[14] Idem, pp. 61-63.
[15] Yochanan E. Bigman, Kurt Gray, «Life and death decisions of autonomous vehicles» [Em Linha], Nature, Vol. 579, março, 2020, p. E1, disponível em Life and death decisions of autonomous vehicles | Nature, consultado em 23/10/2021.
[16] Idem,
[17] Idem, pp. E1-E2.
[18] Jean-François Bonnefon, Azim Shariff, Iyad Rahwan, «The social dilemma of autonomous vehicles», ob. cit., pp. 1574-1575.