João Pedro Leitão

Advogado.

Professor Assistente Convidado na Universidade Europeia.

Autarca, Presidente da Assembleia de Freguesia de Quinta do Anjo.


O Impacto da Inteligência Artificial nos Direitos do Titular de Dados Pessoais: O Caso ChatGPT é a recente obra de sua autoria. Obra publicada pelo Grupo Almedina e disponibilizada no mercado a partir de 26 de Setembro de 2024.

Consulte a obra neste link.


IA e Dados Pessoais, servem o mesmo propósito?

            A Inteligência Artificial desenvolve-se a uma velocidade galopante, absorve uma quantidade elevada e discricionária de dados, por forma a conseguir evoluir o seu algoritmo e assim, prestar um melhor serviço aos seus utilizadores, aprendendo por via das interações estabelecidas, assim como, da informação que lhe é injetada pelo seu criador. Destarte, o ChatGPT (um modelo de linguagem baseado em deep learning, arquitetado com Big Data), desenvolve-se através da sua capacidade de aprendizagem autónoma via interações, porém, ainda sem capacidade de se atualizar automaticamente mediante a informação disponibilizada online. Temos de ter consciência da absorção indevida e não autorizada de dados pessoais e de informação confidencial trocada com a “máquina”. Sabemos ainda que o tratamento de dados pessoais efetuado pelo ChatGPT é opaco e pouco legível para o homem-médio, por outro lado, não sabemos quais os dados pessoais em concreto que são utilizados para treinar o sistema, em que moldes, durante quanto tempo, assim como, sabemos que não foi solicitado previamente consentimento para tal exercício, o que é revelador de um abuso dos princípios inscritos no RGPD, nomeadamente, o princípio finalidade e do consentimento. Estas são as pedras angulares da proteção de dados, tendo como premissa, assegurar que os dados pessoais são recolhidos com uma determinada finalidade, informando previamente o seu titular, de modo a que possa decidir com toda a sua soberania, se autoriza que os seus dados sejam recolhidos e tratados, assim como, utilizados para treinar a máquina. O ChatGPT está vinculado ao cumprimento do RGPD? A resposta é clara, sim, uma vez que é um meio automatizado, conquanto, seria de melhor compreensão se tivesse tipificada a referência concreta a sistemas de IA neste regulamento europeu. Porquanto, devemos saber o que é considerado um dado pessoal para efeitos do RGPD. Ao abrigo do artigo 4º nº. 1 deste diploma, é 1º-a informação; 2º- relativa a; 3º- pessoa singular; 4º- identificada ou identificável. Destarte, somente é aplicável a pessoas singulares e não a pessoas coletivas ou sistemas de IA (por exemplo). Neste quadro legal, considero que seria relevante a inclusão e proteção de dados pessoais de sistemas de IA autónomos ou para-humanos, uma vez que, no futuro será uma realidade. Os dados pessoais devem ser tratados e recolhidos respeitando o consentimento geral e o consentimento de menores que utilizem sistemas de IA como o ChatGPT, nos termos do artigo 7º e 8º do RGPD. Por conseguinte, o ChatGPT deve assegurar o cumprimento dos direitos do titular de dados pessoais, nomeadamente o direito de transparência das informações, das comunicações e das regras para o exercício destes direitos; direito de acesso e de informação dos dados pessoais; direito de retificação; direito ao apagamento de dados e direito de oposição. Sem embargo, a avaliação de impacto sobre a proteção de dados no que diz respeito aos sistemas de IA é fundamental, uma vez que, tem como premissa garantir o respeito ex ante dos direitos, liberdades e garantias dos titulares de dados pessoais, aquando exista um elevado risco para os direitos e liberdades das pessoas singulares, utilizadores destes sistemas inteligentes, ao abrigo do artigo 35º do RGPD. No novo regulamento da IA, é tipificada a obrigatoriedade de elaboração de uma avaliação de impacto relativamente aos sistemas de IA de risco elevado incidindo nos direitos fundamentais potencialmente afetados com esta tecnologia. Todavia, considero uma má decisão, somente existir esta obrigatoriedade para os sistemas de IA de risco elevado, uma vez que, deveria abranger todos os sistemas de IA asseverando mais segurança jurídica e previsibilidade ao ser humano utilizador destes instrumentos. Neste novo diploma, são criadas diferentes categorias de risco de sistemas de IA sendo as regras mais rígidas mediante o risco envolvido. Os quatro riscos criados são o risco mínimo (sistemas de IA que não apresentam risco e não estão abrangidos por este novo regulamento da IA, designadamente os filtros de spam e vídeos criados com recurso a sistemas de IA ), o risco limitado (sistemas de IA compelidos ao cumprimento de obrigações de transparência, nomeadamente identificar que os seus conteúdos foram gerados com recurso à IA, informando os seus utilizadores previamente), o risco elevado (a grande maioria dos sistemas de IA encaixam nesta categoria, estando obrigados a cumprir várias obrigações, por forma a puderem ter acesso ao mercado da União Europeia, nomeadamente, sistemas de IA desenvolvidos para o campo da educação, formação profissional, recrutamento, gestão da migração, asilo e controlo das fronteiras) e o risco inaceitável (os sistemas de IA proibidos, nomeadamente os com a capacidade de manipulação cognitiva-comportamental, o policiamento preditivo, sistemas de reconhecimento de emoções no local de trabalho, sistemas de identificação biométrica à distância). Em relação aos dados pessoais utilizados para treinar os sistemas de IA, para além do consentimento prévio obrigatório, devem ser anonimizados, isto é, deve-se remover ou modificar as informações suscetíveis de identificar o seu titular, bem como, deve-se atribuir royalties face ao facto dos utilizadores terem contribuído em alguma parcela para o desenvolvimento do algoritmo em causa.

            A IA deve servir a humanidade, deve ser desenvolvida com respeito por princípios éticos, deve ter um código de conduta, deve ter um turn off button, deve ter supervisão humana, sob pena de um dia assistirmos à consciência própria da IA, à sua autonomia sem controlo, à luz das suas próprias regras. Não podemos também deixar que os sistemas de IA sejam concebidos ad hoc, visto que há princípios basilares que devem ser integrados nestes instrumentos, nomeadamente a não discriminação, o cumprimento dos direitos humanos, dos dados pessoais, dos direitos de autor, da democracia, de toda a legislação imperativa do local onde presta os seus serviços. O criador como Dominus do processo de desenvolvimento é o principal responsável pela forma como o algoritmo é criado, bem como, pela forma como o sistema de IA se irá comportar em sociedade e pelos danos que eventualmente causar a terceiros. A proteção de dados do titular de dados pessoais deve ser uma prioridade para qualquer criador de sistemas de IA assegurando que o titular tem total conhecimento e dá o seu consentimento prévio para o tratamento de dados para treino da “máquina”, bem como, é remunerado por isso, através de royalties. Sem embargo, os direitos de autor devem incluir as obras criadas pelos sistemas de IA e não somente as intelectualmente desenvolvidas. Nestes casos, o utilizador e o criador devem ser proprietários coletivos de tais obras, na proporção da sua contribuição. No que tange à propriedade industrial, nomeadamente o registo de patentes de produtos desenvolvidos por sistemas de IA, a lógica a implementar deve ser a mesma aplicada aos direitos de autor. Por conseguinte, considero que devemos implementar sistemas de IA como o COMPAS, com a capacidade de avaliar o risco de reincidência dos criminosos e assim, aplicar uma melhor pena ao arguido, tendo em conta a prevenção especial positiva (ressocialização) e negativa (reincidência), um juízo de prognose que quando arquitetado por humanos é subjetivo, ao passo que, pelos sistemas de IA será objetivo consoante o algoritmo programado, culminando numa maior objetividade nas decisões a serem tomadas pelos juízes humanos. Não obstante, poderá um dia, dar-se a situação de termos juízes robôs, programados para aplicar a justiça com base no ordenamento jurídico onde se encontram, todavia, há perguntas que todos devemos fazer e refletir: Haverá respeito pela lei? Quem ficará incumbido de garantir esse cumprimento? Haverá sentimento e emoção no desenrolar dos processos judiciais movidos pela IA? Ou são todos movidos única e exclusivamente pela razão? Terá a IA capacidade de no futuro ter sentimentos e capacidade de leitura dos mesmos? Já o policiamento preditivo é um outro sistema de IA que merece implementação no nosso ordenamento jurídico, tendo como premissa desenvolver previsibilidade e aceder a informação em tempo real de quais os indivíduos mais susceptíveis de cometer um crime no futuro, prevendo o local em que o crime poderá vir a ocorrer, o que consequentemente fará com que os OPCs (Órgãos de Polícia Criminal) consigam alocar melhor os seus recursos no decorrer das suas investigações e assim, mitigar preventivamente crimes prováveis. Todos estes sistemas de IA devem ser compelidos a fazer uma avaliação de respeito pela legislação dos respetivos Estados em que se encontram a prestar serviços, assegurando-se a não discriminação/inexistência de preconceitos, o respeito pelos Direitos Humanos, o respeito por todos os direitos constitucionalmente consagrados, assim como, deve ser sujeito a supervisão humana e auditoria externa e imparcial, sem prejuízo da existência do direito à explicação do código-fonte dos algoritmos criados, por forma a ser possível ao arguido defender-se na plenitude, assinando previamente um acordo escrito de confidencialidade e de não replicação do algoritmo para beneficio próprio ou de terceiros, não prejudicando deste modo, o segredo comercial.

            No presente, a IA já tem um impacto relevante nas nossas vidas, nomeadamente a SIRI que responde às nossas questões e é a nossa assistente virtual, também o ChatGPT que responde em frações de segundos a perguntas que demorariam minutos, horas, dias a responder, reduzindo-se custos e tempo para o utilizador, robôs utilizados para realizar cirurgias complexas, entre tantas outras aplicações. A IA tem a capacidade de no futuro estar desenvolvida a um ponto que conseguirá automatizar todos os processos laborais substituíveis, designadamente por robôs e/ou sistemas de IA que reduzam custo e acelerem a produção e a resposta personalizada ao consumidor final, visto ser uma “mão de obra” cara a curto prazo, mas barata a médio, longo prazo, tendo um maior custo/benefício para quem a estes sistemas recorre. Nunca devemos é substituir o pensamento humano pelo pensamento artificial desconectado de emoções, sentimentos, pensamento crítico, abstrato e abrangente, negligenciando a importância humana no desenvolvimento do nosso mundo. A humanidade deve caminhar ao lado da IA, em parceria e não subordinada aos sistemas de IA.

            Precisamos de criar um Código para a IA que compile toda a legislação avulsa sobre esta matéria, facilitando a sua harmonização e aplicação prática. O novo regulamento da IA apresenta várias lacunas, como a inexistência de tipificação da responsabilidade civil contratual, extracontratual e criminal dos sistemas de IA. Não tipifica os putativos crimes perpetrados com recurso a sistemas de IA, não tipifica quem será a responsabilidade civil contratual, extracontratual e penal dos sistemas de IA.

Em súmula, a União Europeia tem a preocupação em regular, porém, também deve incentivar com apoios e formação para a implementação da nova legislação, sem prejuízo dos países deverem reduzir impostos e as burocracias adstritas ao desenvolvimento de sistemas de IA, acelerando e estimulando a inovação tecnológica, o que consequentemente permitirá que nos tornemos mais soberanos tecnologicamente e fará também com que consigamos crescer mais economicamente num pilar fundamental do futuro, a IA e assim, estar na vanguarda digital e tecnológica mundial.