Ana Cristina Ferreira Gouveia
Mestre em Direito Transnacional da Empresa e das Tecnologias Digitais, pela Escola de Direito da Universidade do Minho e primeira diplomada no âmbito do consórcio UNISF – Universidade sem fronteiras.
Advogada Estagiária na sociedade de advogados, PH Advogados .
Responsabilidade Civil do Produtor na Inteligência Artificial é a recente obra de sua autoria. Obra publicada pelo Grupo Almedina e disponibilizada no mercado desde 2 de Maio de 2024.
A evolução tecnológica, célere, contínua e dilacerante das tradicionais formas de viver é uma realidade mais que nunca evidente nos dias que correm. Vivemos numa nova era, a chamada Quarta Revolução Industrial na qual, no seu topo, e no topo da própria evolução, se encontra a Inteligência Artificial, uma nova e disruptiva tecnologia, transformadora da indústria, da justiça, da guerra, da medicina, das formas de prestação de assistência e cuidados, da agricultura, do mundo do trabalho, das formas de deslocação, enfim, da sociedade em geral, convivendo de tal forma banal e ordinária no quotidiano humano e nas mais elementares tarefas neste levadas a cabo que chega mesmo a passar despercebida. Exemplos simples, um mero robot de cozinha, um assistente pessoal como a Siri ou a Ok Google ou, de modo mais evidente, os próprios veículos autónomos.
Destarte, a Inteligência Artificial vive um período de crescente e exponencial socialização, dadas são as vantagens e facilidades da mesma oriundas. Tarefas que até então eram levadas exclusivamente a cabo pelo ser humano são, agora, realizadas em parte ou na sua totalidade, por sistemas dotados de Inteligência Artificial. Distancia-se o cansaço, o aborrecimento, a perigosidade e os próprios limites físicos e intelectuais que ao Homem se impõem, desafiando-se o futuro da coletividade e as relações que nela se estabelecem. O próprio termo Inteligência Artificial é agora utilizado pela sociedade com a maior banalidade possível, sem que, as mais das vezes, se compreenda o seu significado, sentido e alcance.
A tecnologia está a mudar o mundo, mostrando-se, a Inteligência Artificial talvez como o maior desafio à sociedade proposto, ultrapassando larga medida aquilo que foi a novidade e estímulo pelo surgimento da máquina a vapor, anteriormente impostos. De forma simples e breve, estão em causa sistemas que se pautam pela característica da autonomia e capacidades de autoaprendizagem e desenvolvimento, pelo que, a partir da prévia programação e introdução de dados, potencializados pela interação com o meio em que atuam, se desenvolvem de forma autónoma e independente daquela que foi a atuação do seu programador, podendo tomar decisões de per se, sem qualquer intervenção ou orientação humana, totalmente imprevisíveis e distantes daquelas que eram as esperadas.
Dito isto, partindo daqueles que são os direitos de tutela da vida humana, da integridade física e da propriedade, e partindo do princípio de que o ser humano goza, ou deve gozar, necessariamente, de proteção contra os danos causados por um sistema de Inteligência Artificial, quid iuris, se um destes sistemas, atuando de forma ineficaz numa situação para a qual não estava programado ou, em virtude de uma autónoma evolução, desembocasse num dano a um terceiro?
Com efeito, a Inteligência Artificial surge como um convocar de desafios éticos, sociais e legais e, particularmente nesta última área, tais desafios pronunciam-se de forma transversal aos vários ramos que a mesma compõem. No geral, impõe-se a adequação de velhas normas a novas realidades, todavia, as questões convocadas ao Direito Civil, em sede da aplicação do instituto da Responsabilidade Civil pelos danos convocados por esta em voga tecnologia, resultam manifestas dadas são as suas características de opacidade, interconectividade e autonomia. Quem responsabilizar perante tais danos?
Como refere HENRIQUE SOUSA ANTUNES, “as novas tecnologias aproximam os utilizadores, mas diluem as identidades dos agentes responsáveis”[1].
Enfim, a resposta a esta questão não se tem demonstrado unívoca e linear, tendo-se vindo a apontar três potenciais responsáveis: o produtor, o utilizador e/ou proprietário e a própria máquina inteligente. Todas estas opções encontram razão de ser tendo a si subjacente mérito próprio atendendo aos diversos contextos em que são aplicadas, todavia, as tendências na União Europeia têm colocado o enfoque naquele primeiro agente: o produtor[2].
Como mencionou o Parlamento Europeu, já em 2017, o foco da responsabilidade deve acompanhar o foco do controlo que sobre o produto é exercido, sendo que, quanto mais sofisticado e autónomo é o sistema de Inteligência Artificial, maior a transferência do controlo que anteriormente era exercido pelo utilizador para o produtor. É este que, ou lhe diz como agir, com que bases e fundamentos ou, quando tal não se verifique por o sistema ser dotado de elevados níveis de autonomia, invariavelmente influencia tais circunstâncias.
Ora, a responsabilidade do produtor é hoje possível por meio do regime de responsabilidade objetiva do produtor previsto no Decreto-Lei 383/89, de 06 de novembro, que transpôs, para a Ordem Jurídica Interna, a Diretiva 85/374/CEE[3].
Contudo, em vigor há mais de três décadas, e sendo composto por normas tecnologicamente neutras, apresenta dificuldades tais, que, presentes em praticamente todos os seus conceitos, não só são destacadas em vários dos distintos documentos que a União Europeia, desde 2017, a propósito da Inteligência Artificial e das dificuldades por si ocasionadas, tem publicado, como lhe valeram, a 28 de setembro de 2022, o surgimento de uma Proposta de Diretiva[4] que pretende, precisamente, a sua revogação, como meio de adaptação do regime à realidade da Inteligência Artificial.
Várias são as questões que ao regime vigente se colocam: como configurar um sistema de Inteligência Artificial no conceito de produto? Será o clássico e tradicional conceito de produtor apto ao englobamento dos insurgentes e distintos agentes envoltos no domínio desta tecnologia? Padecerá o conceito de defeito de adequação perante este novo contexto? Haverá um eventual dever de acompanhamento e sequela do sistema por forma a garantir que este, através da disponibilização de atualizações, evolua de forma próxima àqueles que eram os iniciais e esperados padrões de segurança? Serão os danos emergentes de uma era digital passíveis de encaixe no conceito de dano pelo diploma adotado? E, por fim, perante um lesado leigo em tecnologia digital e ausente de conhecimentos técnicos e científicos sobre Inteligência Artificial, haverá necessidade de adequação do ónus da prova que sobre este recai?
Ora, todas estas
questões e desafios, bem como as propostas de solução adotadas pela União – subjacentes
à proposta de Diretiva que se encontra em discussão pelas instâncias europeias
– serão escrutinadas, de forma
pormenorizada e exaustiva, na obra “ Responsabilidade Civil do Produtor na Inteligência
Artificial”, dentro em breve publicada pelo Grupo Almedina.
[1] ANTUNES, HENRIQUE SOUSA, “Inteligência Artificial e Responsabilidade Civil: Enquadramento”, in Revista de Direito da Responsabilidade [Em linha], Ano 1, 2019, pp. 139-140. Disponível em https://revistadireitoresponsabilidade.pt/2019/inteligencia-artificial-e-responsabilidade-civil-enquadramento/.
[2] PARLAMENTO EUROPEU, Resolução do Parlamento Europeu que contém recomendações à Comissão sobre disposições de Direito Civil sobre Robótica, Disposições de Direito Civil sobre Robótica, de 16 de fevereiro de 2017 [2015/2103(INL)], ponto 56. Disponível em https://eur-lex.europa.eu/legal-content/PT/TXT/?uri=CELEX%3A52017IP0051.
[3] Disponível em https://eur-lex.europa.eu/eli/dir/1985/374/oj.
[4] Proposta de Diretiva do Parlamento Europeu e do Conselho relativa à responsabilidade decorrente de produtos defeituosos, de 28 de setembro de 2022 [COM(2022) 495 final]. Disponível em https://eur-lex.europa.eu/legal-content/PT/TXT/?uri=CELEX%3A52022PC0495.