Cristiano Dias

Advogado.
Licenciatura em Direito na Faculdade de Direito da Universidade de Lisboa (Clássica).
Mestrado em Direito Comercial na Faculdade de Direito da Universidade de Lisboa (Clássica).
Pós-Graduação Avançada em M&A e Corporate Litigation (Clássica).


Consulte a sua obra neste link.


Todos aqueles que já tiveram a oportunidade de interagir com o ChatGPT da OpenAI ou o Gemini da Google (ou qualquer outra ferramenta similar) rapidamente se apercebem que o aparecimento destas ferramentas de Inteligência Artificial (IA) tem uma inegável capacidade de potenciar a produtividade e reduzir custos. A rapidez e a aparente eficácia com que se obtém uma resposta para uma determinada questão pode ser fascinante, mas esse fascínio traz com ele uma falsa sensação de segurança aos seus incautos e ainda jovens utilizadores. Atualmente, estas ferramentas ainda estão longe de ser infalíveis.

O fenómeno denominado pelos especialistas de AI hallucinations (alucinações da IA) tem de ser tido em consideração enquanto usamos e beneficiamos da rapidez e facilidade de uso destes “assistentes do século XXI”. Sem entrar em grandes detalhes técnicos, nomeadamente sobre a tecnologia utilizada nestes tipos de chatbots – denominada de LLM (large language model) –, uma AI hallucination é o nome que se dá à informação fornecida pelo chatbot que, ainda que pareça ser coerente e estar revestida de dados reais, é incorreta. Dito de outro modo, é uma informação fantasiosa/fictícia dada pelo chatbot, mas que tem toda a aparência de uma informação verdadeira e sustentada. Os especialistas explicam que isto acontece porque estas ferramentas são treinadas/programadas para gerar texto e respostas semelhante a um humano, aprendendo e melhorando em tempo real a sua capacidade de resposta, sempre que alguém interage com o programa. Contudo, não têm uma verdadeira noção do que é a verdade e, por isso, podem gerar texto de um modo em que aparente ser factualmente correto e coerente, mas que pode – e muitas vezes irá – conter erros.

Estas alucinações têm-se tornado, durante o último ano, bastante famosas e têm sido uma das muitas razões que têm levado as empresas a promover versões atualizadas das ferramentas de IA. Este é um dos principais motivos pelos quais o recurso a este tipo de programas tem de ser cauteloso, ponderado e acompanhado de alguma formação básica.

Como o próprio ChatGPT nos avisa assim que iniciamos uma conversa, não devemos aceitar o resultado da interação com a ferramenta de IA como a fonte de um facto, de uma notícia ou de uma decisão judicial. Essa cautela e ponderação não foram tidas em consideração por alguns advogados nos mais famosos casos de AI hallucinations que chegaram mesmo a tribunal.

O caso mais recente aconteceu na cidade de Vancouver, no Canadá, em fevereiro deste ano.

No seguimento do divórcio da senhora Nina Zhang e do senhor Wei Chen, em dezembro de 2023, foi judicialmente decidido que os três filhos do casal ficariam com a mãe, e que o pai teria de pagar uma pensão mensal de cerca de 16 mil CAD.

Poucos dias depois, a advogada do pai apresentou um pedido, junto do British Columbia Supreme Court, para que fosse autorizada uma viagem do pai com os seus filhos com destino à China. Esse pedido foi sustentado com a referência a duas outras decisões jurisprudenciais nas quais tinha sido concedida a autorização em situações idênticas. Uma das decisões dizia respeito a uma autorização concedida a uma mãe para viajar com a criança de 7 anos para a Índia por 6 semanas; a outra à autorização concedida a uma mãe a viajar com a sua criança de 9 anos para a China por 4 semanas para visitar a família.

Após terem sido notificados deste pedido e de analisarem o teor do mesmo, os advogados da mãe não conseguiram localizar as referidas decisões jurisprudenciais. Tiveram, por isso, de contactar o escritório da advogada do pai e solicitar as respetivas cópias das decisões, para que pudessem responder ao pedido de autorização.

Foi assim que a advogada do pai das crianças descobriu que as decisões jurisprudenciais, nas quais tinha sustentado o seu pedido de autorização, não existiam e que tudo não passou de uma IA hallucination. Veio-se a apurar que a advogada tinha questionado o chatbot do ChatGPT sobre a existência de exemplos de casos anteriores em que tivesse sido concedida uma autorização em situação idêntica. O chatbot terá dado três exemplos, e a advogada selecionou dois deles para fundamentar o seu pedido. Sucede que o ChatGPT tinha fantasiado sobre a existência destes dois casos e a advogada não verificou a veracidade da pesquisa feita, confiando cegamente na mesma.

Para além dos normais pedidos de desculpa, a advogada prestou ainda depoimento sob juramento afirmando que (i) desconhecia os riscos inerentes à utilização do ChatGPT e da possibilidade de serem prestadas informações falsas, e (ii) que não houve qualquer intenção de induzir o tribunal em erro. Contudo, isto não chegou para os advogados da parte contrária que acusaram a advogada de ter tido uma conduta repreensível e merecedora de censura, até porque toda esta situação implicou que os advogados tivessem despendido tempo e custos consideráveis para determinar se os casos mencionados eram reais.

Perante isto, o juiz do British Columbia Supreme Court, apesar de reconhecer que, face às circunstâncias do caso, a advogada do pai não teve a intenção de enganar o tribunal, reconheceu também que esta foi ingénua ao confiar cegamente na resposta do ChatGTP e que, se não tivesse sido detetada esta situação, podíamos estar perante um grave erro judiciário. Deste modo, o juiz não deferiu o pedido da contraparte para que fosse condenada ao pagamento de uma compensação por má-fé e abuso de direito, mas acabou por declarar que a advogada do pai deveria suportar os custos das diligências efetuadas pelos advogados da mãe para sanar a confusão criada pelos casos jurisprudenciais falsos. Além disso, o juiz ordenou expressamente que a advogada revisitasse todos os seus outros processos judiciais de forma a apurar se os mesmos contêm citações ou resumos de processos judiciais cuja fonte é o ChatGPT ou outra ferramenta de IA, sendo que, nesse caso, deverá informar, de imediato, o tribunal e a contraparte.

Este tema não ficou por aqui. A Law Society of British Columbia (entidade responsável pelo licenciamento e regulamentação dos advogados na British Columbia – que tem publicado recentemente vários materiais destinados a alertar os advogados para os perigos da IA) iniciou uma investigação à conduta da advogada do pai, podendo dar lugar a um processo disciplinar. À data de hoje, ainda não existem desenvolvimentos desta investigação.

No ano passado, outro caso de IA hallucination fez correr muita tinta nos tribunais norte-americanos.

No seguimento de um voo de San Salvador, El Salvador, com destino a Nova Iorque, Estados Unidos, em 27 de agosto de 2019, um senhor chamado Roberto Mata intentou uma ação, junto do Tribunal Federal de Nova Iorque, contra a companhia aérea colombiana Avianca Airlines alegando que durante o respetivo voo foi atingido no joelho por um carrinho de servir (serving cart), o que lhe causou ferimentos graves. Deste modo, avançou para tribunal peticionando uma indemnização no âmbito da Convenção de Montreal de 1999 (Convenção para a Unificação de Certas Regras Relativas ao Transporte Aéreo Internacional) – convenção que regula a responsabilidade das transportadoras aéreas em caso de danos causados a passageiros, bagagens ou mercadorias durante viagens internacionais, sendo que consagram um princípio de responsabilidade ilimitada de uma transportadora aérea em caso de lesão corporal.

Uma das discussões centrais deste caso acabou por se prender com a eventual prescrição do direito à indemnização por parte do passageiro. A Convenção de Montreal de 1999 consagra, no seu artigo 35.º, que o direito à indemnização se extingue se não for intentada uma ação no prazo de dois anos a contar da data da chegada ao destino, da data em que a aeronave deveria ter chegado ou da data da interrupção do transporte.

Para os advogados da companhia aérea, uma vez que a ação tinha sido intentada mais de dois anos após a data do voo, o referido artigo 35.º deveria ser aplicável e tendo o prazo de dois anos já sido ultrapassado, o processo deveria extinguir-se.

Já os advogados do passageiro tinham uma interpretação diferente. Estes defendiam que o prazo de prescrição era de três anos e que, além disso, tal prazo tinha sido suspenso em 2020 face à insolvência da companhia aérea. De forma a sustentar a sua alegação, os advogados do passageiro apresentaram cerca de seis decisões jurisprudenciais que validavam a sua interpretação, que alegadamente corresponderiam a processos anteriormente intentados contra algumas companhias aéreas como a China Southern Airlines, a EgyptAir, a Iran Air ou a Delta Airlines, Inc.. Mais tarde, os advogados confirmaram que recorreram ao chatbot do ChatGPT para pesquisar decisões jurisprudenciais que sustentassem a sua interpretação e que, perante o resultado da pesquisa, até solicitaram ao chatbot que confirmasse a veracidade de tais decisões. Tendo o chatbot confirmado a autenticidade das referidas decisões jurisprudenciais, os advogados confiaram nessa informação e não fizeram um fact-check. Só quando os advogados da companhia aérea, incapazes de encontrar as referidas decisões, pediram aos advogados do passageiro cópias das mesmas, é que estes fizeram o dito fact-check e se aperceberam que afinal estas não existiam.

Perante o tribunal, também neste caso, o advogado responsável pela equipa de advogados do passageiro prestou depoimento sob juramento, afirmando que (i) não teve qualquer intenção de enganar o tribunal e que (ii) tinha sido a primeira vez que tinham recorrido ao ChatGPT para este tipo de pesquisas e que acreditavam na autenticidade da informação prestada. O advogado afirmou ainda desconhecer que o ChatGPT é uma ferramenta generativa de processamento de linguagem, pensando tratar-se de um motor de busca.

Neste caso, o juiz não teve misericórdia e condenou os advogados do passageiro a pagar uma multa de 5 mil USD por considerar que a conduta dos advogados foi inaceitável consubstanciando uma evidente situação de má-fé.

No Reino Unido também chegou aos tribunais um caso de IA hallucination.

Este caso opôs Felicity Harber (em sua própria representação) à Commissioners for His Majesty’s Revenue and Customs (HMRC) junto do First-Tier Tribunal Tax Chamber do Reino Unido. Em traços gerais, Felicity Harber impugnou, através desta ação, a condenação de que tinha sido alvo por parte da HMRC de pagamento de uma coima no valor de £ 3.265,11 por não ter procedido à regularização do imposto sobre mais-valias relativos à alienação de uma propriedade.

Felicity Harber alegou que não devia de haver lugar ao pagamento da coima, porquanto a não regularização da obrigação fiscal deveu-se (i) à sua saúde mental precária e (ii) ao desconhecimento da referida obrigação. Como forma de sustentar a sua narrativa, Felicity Harber citou ao todo nove decisões jurisprudenciais envolvendo a própria HMRC, cinco das quais relacionadas com o argumento do estado mental precário e as outras quatro com o tema do desconhecimento da lei.

Os advogados da HMRC não conseguiram encontrar qualquer referência relativamente a sete dos nove casos e quanto a dois deles as referências encontradas eram contraditórias com o que constavam da narrativa da Felicity Harber, incluindo quanto ao desfecho final do caso. O próprio Tribunal diligenciou pela pesquisa destes casos junto das suas bases de dados e arquivo e também não encontrou nada.

Confrontada com esta situação, Felicity Harber afirmou que a existência destas decisões jurisprudências lhe tinha sido transmitida por um alegado amigo que trabalhava num escritório de advogados e que a terá ajudado com esta impugnação. Afirmou igualmente como possível que estes casos tenham sido fornecidos por uma ferramenta IA.

O Tribunal acabou por concluir pela inexistência destas decisões jurisprudenciais e, apesar de não ter dado mais importância ao tema, indeferiu a impugnação de Felicity Harber por não se verificarem, no seu entender, os motivos justificativos alegados.

Em Portugal, até à data, não é conhecido nenhum caso semelhante a este. Não quer dizer que não exista, mas, pelo menos, ainda não houve nenhum que assumisse a relevância mediática equiparável a estes três casos.

É verdade que nos Estados Unidos, no Canadá e no Reino Unido situações como as que foram relatadas assumem ainda maior importância, porquanto são países onde o sistema de common law foi adotado. Portanto, a regra do precedente tem um impacto fortíssimo e, dessa forma, as decisões dos tribunais perante situações semelhantes assume uma importância crucial no desfecho dos processos.

Já no caso português, a jurisprudência assume, cada vez mais, uma importância relativa. Há juízes, cujas decisões dos seus pares são importantes para delinear as suas próprias decisões; mas há outros que preferem não dar qualquer importância às decisões tomadas pelos seus pares. Dito isto, não seria surpreendente se tais decisões fantasiosas não fossem sequer descobertas pelo tribunal ou até pela contraparte. Excecionam-se naturalmente os casos em que a contradição de julgados é determinante para que possa ser admitido um recurso e/ou as situações de uniformização de jurisprudência. Nestes casos, a invenção de decisões jurisprudenciais será provavelmente detetada.

Nos países da common law, a discussão em torno das AI Hallucionations vai-se intensificando face a estes casos assinalados. Tanto nos Estados Unidos como no Canadá, surgem cada vez mais guidelines direcionadas aos advogados sobre a utilização das ferramentas AI. A Law Society of British Columbia tem estado particularmente ativa nesta matéria e como referimos até se encontra a investigar a advogada que cometeu o erro de usar decisões inventadas pelo ChatGPT. Também na Austrália se tem intensificado a discussão em torno das AI Hallucinations. Apesar de não ter ocorrido um caso destes nos tribunais (que se tenha tornado mediático), as entidades competentes australianas estão preocupadas com a utilização das ferramentas de IA no âmbito da justiça e têm criado diretrizes e guidelines com recomendações sobre a utilização destas ferramentas.

A existência de erros é uma clara preocupação do Regulamento da Inteligência Artificial da União Europeia que menciona nos seus considerandos que: “(67) … Os conjuntos de dados de treino, validação e testagem, incluindo os rótulos, deverão ser pertinentes, suficientemente representativos e, tanto quanto possível, isentos de erros e completos, tendo em conta a finalidade prevista do sistema”. | “(75) A solidez técnica é um requisito essencial dos sistemas de IA de risco elevado. Esses sistemas deverão ser resistentes a comportamentos prejudiciais ou indesejáveis que possam resultar de limitações dentro dos sistemas ou do ambiente em que os sistemas operam (por exemplo, erros, falhas, incoerências, situações inesperadas)”.

É natural que as sucessivas atualizações e melhorias das ferramentas de IA reduzam a possibilidade de surgir uma alucinação. De todo o modo, a experiência diz-nos que, quando se trata de tecnologia, quando se corrige um problema, outro aparece. Será, por isso, necessário continuar a ter cautela quanto à utilização deste tipo de programas e, em caso algum, confiar cegamente no resultado que os mesmos apresentam.

Os perigos da utilização da IA podem, em determinados casos, superar largamente os benefícios advindos da sua utilização. O ganho em produtividade e a redução de custos pode rapidamente ser colocada em causa por uma alucinação ou equivalente que, quando surja, pode provocar danos reputacionais significativos e, no âmbito do exercício da advocacia, no qual a reputação é um pilar central, uma alucinação pode ter um impacto muito negativo na imagem de um advogado e/ou numa sociedade de advogados.

Tudo isto revela que a educação da comunidade em geral e dos advogados em particular sobre a utilização de ferramentas de IA é fundamental. Se não for feito um fact-check a cada momento do processo, há um elevado risco (que poderá reduzir-se com o tempo e com as novas atualizações destas ferramentas) de a informação ser inconsistente e incorreta.

Como tem sido salientado pelas várias guidelines que têm surgido neste campo, o advogado tem, acima de tudo, uma obrigação ética de assegurar a veracidade do conteúdo do que é submetido em tribunal. Portanto, o input dado por este tipo de ferramentas de IA não deve ser considerado como solução definitiva para determinada questão ou problema, devendo ser posteriormente validado com fontes alternativas. No caso da pesquisa de jurisprudência, deverá sempre tentar obter-se as decisões juntos dos respetivos tribunais através das plataformas existentes.

As ferramentas de IA devem ser vistas e utilizadas como algo que aumenta a produtividade e facilita a vida das pessoas, mas para isso é imperativo estar ciente dos vários riscos associados à sua utilização e estar consciente que uma utilização pouco rigorosa pode colocar em causa, no caso dos advogados, a reputação que para nós demora décadas a construir.