CELSO FERRO 

 

ADVOCACIA E CONSULTORIA ESPECIALIZADA

 

ENSAIO PRELIMINAR PARA O USO DA INTELIGÊNCIA ARTIFICIAL GENERATIVA EM DECISÕES JUDICIAIS

                  

               

RESUMO

 

               O Direito está em constante transformação, sobretudo, em razão da velocidade do mundo e da acelerada evolução tecnológica, social e econômica. A transformação digital na área jurídica já é uma realidade e ações têm se desenvolvido visando proporcionar mais eficiência, celeridade e qualidade na tramitação dos processos e na gestão dos tribunais. Atualmente, uma das inovações mais proeminentes são as plataformas de Inteligência Artificial Generativa (IAG) que chamam a atenção dos pesquisadores, os quais já sugerem, sem temeridade, a possibilidade de sua aplicação efetiva em várias áreas. Este trabalho tem por finalidade discorrer sobre a possibilidade de aplicação da IAG em decisões judiciais, apresentar um ensaio incipiente para verificar como estas plataformas entendem a questão, sem desconsiderar essencialmente, que para uma efetiva utilização deste recurso, muito estudo ainda deverá ser realizado, ser baseada em regras claramente definidas, pautadas em princípios éticos, que haja transparência e não prescinda da revisão humana, de forma a assegurar os direitos fundamentais, bem como a proteção da personalidade humana.

Palavras-chave: Decisões Judiciais, Inteligência Artificial Generativa, Explicabilidade, Processamento de Linguagem Natural.

 

INTRODUÇÃO

 

                     De acordo com a jurista Tainá Aguiar Junquilho, em resumo, os projetos de IA no Judiciário brasileiro buscam agilizar tarefas repetitivas, uniformizar o tratamento de peças e decisões processuais estruturar dados, incrementar o sistema de precedentes e a eficiência da entrega da prestação jurisdicional.[1]

 

                          Afirma também que não se pode negar que está em curso uma revolução no modo de trabalho do ser humano, a qual afeta todas as áreas do conhecimento, incluindo o Direito. Por outro lado, a lida direta com as soluções derivadas do aprendizado de máquina, como é o caso de algumas aplicações, pode tirar a confrontação pessoal e desumanizar, em certa medida, o acesso à justiça.[2]

 

                 O doutrinador Wolfgang Hoffmann-Riem, escritor da obra Teoria do Direito Digital, afirma que a transformação digital progride a passos largos, exsurgindo no­vos desenvolvimentos, que incluem novos projetos de Lei e decisões judiciais, porém, sobretudo, inovações tecnológicas.[3]

 

                  No entendimento do referido autor, as capacidades de armazenamento e de análise pelos com­putadores estão sendo expandidas e as possibilidades de aplicação e desempenho dos algoritmos estão crescendo e mudando rapidamente. A chamada Inteligência Artificial é, particularmente, importante para isso. Esse termo refere-se no especial esforço de reproduzir digitalmente estruturas de decisão semelhantes às humanas, ou seja, de projetar um computador de tal forma e, usando as chamadas redes neurais[4] possa processar os problemas da maneira mais independente possível e, se necessário, desenvolver ainda mais os programas utilizados.[5]

 

                    Sabemos, por meio de diversos estudos, que os algoritmos têm capacidade de ocasionar graves danos à intimidade e a personalidade, bem como intensas mudanças e transformações no mundo jurídico se não forem tratadas adequadamente. Falhas de sistemas de IA podem decorrer não apenas de deficiências formais (erros de programação, base de dados de treinamento inadequadas) como também da impropriedade na tomada de decisões que dependem de percepções, valores ou comportamentos que são incompreensíveis pelas máquinas (WIMMER e DONEDA (2021).

 

                        A tecnologia não para de surpreender o mundo. Além da Inteligência Artificial Generativa (IAG), a mais propalada inovação tecnológica por exemplo, se refere ao computador quântico, que é uma máquina capaz de processar informações usando princípios da física quântica e permite realizar cálculos muito mais rápidos do que os computadores clássicos. Um exemplo de sua aplicação, está relacionado ao desenvolvimento de algoritmos quânticos para a IA, sensores quânticos e sistemas de comunicação, sendo uma área em evolução e que promete revolucionar.

 

                    Conforme avança o uso da IA, as expectativas para a sua utilização são cada vez mais alcançadas e mesmo superadas. No âmbito da Justiça, o seu uso vem trazendo avanços consideráveis, no tocante à efetividade da prestação jurisdicional, na economia de tempo e gestão eficiente dos tribunais. Com o surgimento de plataformas de Inteligência Artificial Generativa, tais como: LuzIA e o famoso ChatGPT, será necessário avaliar os seus espaços de atuação e realizar estudos sobre a sua aplicação no direito como um todo.

 

                      Essas tecnologias podem servir para análise de um grande volume de conteúdos e textos a afim de fornecer uma reposta sintetizada, ou mais completa, para o seu usuário. Em suma, esta área da IA especializada tem o potencial de trazer grandes mudanças no mundo, na área jurídica inclusive, podendo melhorar a análise dos processos judiciais e propondo minutas de sentenças ou mesmo fundamentando decisões judiciais.

 

A Inteligência Artificial Generativa

 

              O ChatGPT é uma aplicação de Inteligência Artificial que foi desenvolvido pelo laboratório de pesquisa da Open AI, organização fundada em 2015 nos Estados Unidos da América. É um sistema criado para conversar com pessoas. GPT, Generative Pretrained Transformer significa que a aplicação é capaz de criar algo novo, neste caso, respostas para as perguntas ou declarações que as pessoas fazem; Pretrained significa que, antes de você começar a usar o ChatGPT ele já passou por um longo período de aprendizado durante o qual, ele foi alimentado com muitos exemplos de conversas e textos humanos. Ele usou esses exemplos para aprender como as pessoas normalmente conversam e escrevem; e Transformer se refere ao tipo específico de modelo de IA que o ChatGPT usa para fazer seu trabalho.[6]

 

                     Outra aplicação que também prenuncia sucesso é o LuzIA, plataforma semelhante ao ChatGPT, sistema de interação simples e gratuito, utilizado por meio do Whatsapp e Telegram, projeto apoiado por investidores do Vale do Silício. Antes de chegar ao Brasil, a ferramenta contava com mais de quatro milhões de usuários ativos em 40 países.

 

                        O campo da Inteligência Artificial (IA) tem avançado consideravelmente em razão do surgimento dessas plataformas de IAG, e que tem sido objeto de grande discussão, principalmente nas universidades, considerando o seu uso cada vez mais constante na produção de textos profissionais e também artigos científicos. Devido à sua capacidade de escrever de forma coerente e inteligente, muitos estão preocupados, a partir de agora, sobre como o uso dos aplicativos de IAG, entre pesquisadores e estudantes, pode afetar o meio acadêmico, levantando questões sobre como avaliar a integridade e a qualidade de pesquisas científicas.

 

                      Em coautoria com o ChatGPT, ROSSONI (2022) afirma que apesar dos perigos que o ChatGPT pode representar para a ciência, ele também pode ser visto como uma ferramenta valiosa que pode liberar os cientistas da tarefa árdua e nem sempre central da escrita. Com a capacidade de gerar texto de forma articulada e inteligente, o ChatGPT pode ajudar os cientistas a economizar tempo e esforço na redação de resumos, artigos e outros documentos científicos. [7]

 

                         Isso permite que os cientistas se concentrem apenas na geração de novas ideias em seu processo. Ao invés de gastar horas escrevendo e revisando artigos, os cientistas podem usar esse tempo para desenvolver suas teorias e conduzir mais experimentos. Além disso, a escrita automatizada pode ser menos suscetível a erros humanos, pode haver menos erros e incongruências nos artigos científicos gerados pelo ChatGPT.[8]

 

                       Diversas notícias descrevem que o uso destas ferramentas otimiza o tempo e o esforço na produção, revisão e editoração de textos, em razão de que é capaz de formatar e organizar um texto eficientemente. Por outro lado, LUND e TING (2023)[9] alertam sobre a possibilidade de que o uso dessas plataformas possa comprometer a integridade dos artigos científicos.

 

                       Nesse sentido ainda, IRIGARAY e STOCKER (2023)[10] sugerem o seguinte exercício mental: imaginar uma chamada de artigos científicos, de forma que cinco autores usem o ChatGPT para produzir trabalhos sobre o mesmo tema. Há uma grande possibilidade de que todos os textos guardem grande similaridade e assim, o sistema antiplágio identificará a falta de marca autoral e, por consequência, os artigos seriam recusados. Os autores afirmam que já houve casos de pesquisadores usando ferramentas de IA para gerar documentos falsos ou manipular os resultados de experimentos.

 

               Isto posto, apresenta-se a seguinte questão: no caso em que decisões judiciais puderem ser proferidas com uso de plataformas, na configuração tecnológica de aplicativos de Inteligência Artificial Generativa, do tipo, ChatGPT ou LuzIA, e considerando ainda a possibilidade de aplicação por similaridade de demandas judiciais, podemos afirmar haver uma coerência na fundamentação das decisões? Em decisões judiciais os juízes têm o dever de proferir sentenças semelhantes para os casos idênticos, além da necessidade do julgador de manter a coerência, zelando pela respeitabilidade e pela credibilidade do Poder Judiciário.

 

                   No recente III Seminário Interdisciplinar da Universidade Católica de Brasília oocorrido em 29 de junho de 2023[11],  Professor Eduardo Amadeu Moresi, Coordenador do Apple Developer Academy[12], apresentou com eficiência, testes com uso da Inteligência Artificial Generativa, ChatGPT, para análise de Jurisprudências em Ferramentas de Lawtech[13]. Segundo relato do pesquisador, em entrevista informal, testes em laboratório registraram sucesso, quando realizaram tecnicamente a introdução de 20 (vinte) jurisprudências no ChatGPT e posteriormente lançaram questões atinentes ao tema. O trabalho ainda não foi publicado.

 

Respostas dos aplicativos de IAG sobre decisões judiciais

 

              Com o objetivo de realizar uma incipiente avaliação empírica sobre a eficiência de aplicativos de IAG, interrogamos as plataformas, LuzIA e o ChatGPT, sobre questões concernentes à tomada de decisões judiciais pela IA, e assim, verificar a coerência das respostas de acordo com o conhecimento científico existente sobre o tema. A base de conhecimento de ambos é formada por dados e informações coletadas em diversas fontes, incluindo artigos científicos, livros, sites especializados e outras fontes confiáveis, entretanto, é possível verificar que as respostas apresentam sentido e interpretações diferentes diante da mesma pergunta.

 

                      Cabe considerar também a seletividade dos níveis de respostas, que no caso do ChatGPT, optamos pelo estilo balanceado. É certo que o conhecimento produzido pelos aplicativos é, constantemente, renovado por meio de treinamentos e atualizações, a fim de garantir, segundo dizem seus idealizadores, o fornecimento de informações e respostas mais atuais. A questões abaixo foram elaboradas de forma aleatória e seguem as suas respectivas respostas:

 

Celso Ferro: É possível a Inteligência Artificial tomar decisões judiciais?

LuzIA: Atualmente, a inteligência artificial é usada como ferramenta de apoio na tomada de decisões judiciais, mas não tem autonomia para tomar decisões por si só. A IA pode auxiliar na análise de dados, pesquisa jurídica e identificação de padrões, fornecendo informações relevantes aos juízes para embasar suas decisões. No entanto, a tomada final de decisão continua sendo responsabilidade dos seres humanos, levando em consideração aspectos éticos, legais e contextuais. A IA no campo jurídico deve ser vista como uma aliada, mas o julgamento humano ainda é essencial.

ChatGPT: A inteligência artificial já está inserida no Poder Judiciário Brasileiro e pesquisas indicam que a maior parte dos tribunais possui pelo menos um projeto, em produção ou em desenvolvimento, que utiliza essa tecnologia. O Conselho Nacional de Justiça já estabeleceu diretrizes sobre ética, transparência e governança de IA no Judiciário, o que favorece o desenvolvimento colaborativo e o uso racional de recursos. Entretanto, alguns desafios ainda separam a máquina da função judicante, entre eles os vieses algorítmicos e questões relacionadas à segurança da informação.

 

              Para alguns especialistas, mesmo com o avanço da tecnologia, a inteligência artificial não produzirá decisões em processos judiciais (pelo menos por enquanto) e a função continuará sendo de magistrados, com os sistemas auxiliando-os quando possível e tornando o trabalho mais rápido e eficiente.

 

Celso Ferro: A intervenção humana na IA, pode ser após a decisão no sentido de corrigi-la?

LuzIA: Sim, a intervenção humana na IA pode ocorrer após a tomada de decisão, com o objetivo de corrigir ou ajustar a decisão tomada pelo sistema. Isso é conhecido como "aprendizado supervisionado", onde os resultados da IA são monitorados e avaliados por humanos, que podem corrigir eventuais erros ou imprecisões. Esse processo de feedback é fundamental para o aprimoramento contínuo da IA e para garantir que as decisões tomadas sejam precisas e justas. No entanto, é importante lembrar que a intervenção humana é essencial para garantir que as decisões tomadas pela IA estejam em conformidade com os valores éticos e legais.

ChatGPT: Sim, é possível que haja intervenção humana na IA após a decisão no sentido de corrigir a decisão. A intervenção humana pode ser necessária para corrigir erros ou vieses que possam ter sido introduzidos no processo de tomada de decisão da IA. No entanto, é importante lembrar que a intervenção humana pode ser limitada pela complexidade do sistema de IA e pela falta de transparência em relação à forma como as decisões são tomadas.

 

Celso Ferro: Após vários aprimoramentos nas decisões de IA podemos permitir uma decisão melhor com mais acurácia?

LuzIA: Sim, à medida que a inteligência artificial é aprimorada e passa por treinamentos e refinamentos contínuos, é possível alcançar decisões com maior acurácia e qualidade. Com o uso de algoritmos avançados e grandes conjuntos de dados, a IA pode aprender com experiências passadas e tomar decisões mais precisas. No entanto, é importante lembrar que a supervisão humana ainda é necessária para garantir a ética e a legalidade das decisões tomadas pela IA.

ChatGPT: Sim, aprimoramentos nas decisões de IA podem permitir uma decisão melhor com mais acurácia. A inteligência artificial pode desempenhar um papel crucial na melhoria da tomada de decisões e na redução de erros. Ao analisar grandes volumes de dados e identificar padrões e tendências relevantes, os sistemas de IA podem ajudar os profissionais do direito a tomar decisões mais informadas e precisas.

 

Celso Ferro: Se a decisão da IA estiver de acordo com ética e a legalidade podemos aceitar uma nova decisão sem supervisão humana?

LuzIA: Embora a IA possa tomar decisões que estejam de acordo com a ética e a legalidade, é importante manter a supervisão humana para garantir a responsabilidade e a transparência. A tomada de decisões complexas envolve uma série de nuances e considerações contextuais que requerem o julgamento humano. A supervisão humana também é fundamental para lidar com possíveis consequências não previstas ou situações excepcionais que possam surgir. Portanto, mesmo que uma decisão da IA pareça correta, é recomendável que haja sempre um elemento humano envolvido para revisão e validação.

ChatGPT: Se a decisão da IA estiver de acordo com ética e legalidade, pode ser aceita sem supervisão humana. No entanto, é importante lembrar que a ética e a legalidade são conceitos complexos e em constante evolução, e que as decisões de IA podem ter consequências imprevistas. Além disso, a supervisão humana pode ser necessária para garantir que as decisões de IA sejam justas e equitativas.

 

Celso Ferro: Se a tomada de decisão não for complexa, que envolva considerações contextuais e de julgamento humano, podemos admitir, decisões da IA em casos simples com a avaliação de regras e exceções apenas?

LuzIA: Em casos simples e bem definidos, nos quais as decisões podem ser baseadas em regras e exceções claras, é possível considerar a possibilidade de permitir que a IA tome decisões sem supervisão humana. No entanto, é fundamental garantir que as regras sejam bem estabelecidas, atualizadas regularmente e que haja mecanismos de revisão e correção em caso de erros ou situações excepcionais. Ainda assim, é importante ter em mente que a supervisão humana é essencial para garantir a responsabilidade e a confiança nas decisões tomadas pela IA.

ChatGPT: Sim, em casos simples onde a tomada de decisão não é complexa e envolve considerações contextuais e julgamento humano, podemos admitir decisões com a avaliação de regras e exceções apenas. No entanto, é importante lembrar que as regras e exceções devem ser cuidadosamente definidas para garantir que as decisões de IA sejam justas e equitativas.

 

Celso Ferro: Em caso de regras e exceções bem claras é possível permitir que a IA tome decisões autônomas e, após a decisão, em caso de recurso, este será decidido por um juiz humano. Estou correto?

 

LuzIA: Sim, em casos simples e bem definidos, nos quais as regras e exceções são claras e compreendidas, é possível permitir que a IA tome decisões autônomas, com a possibilidade de revisão por um juiz humano em caso de recurso. No entanto, é importante lembrar que a supervisão humana é fundamental para garantir a responsabilidade e transparência das decisões tomadas pela IA. Além disso, deve-se garantir que os indivíduos envolvidos no processo tenham acesso às informações e procedimentos necessários para compreender as decisões tomadas pela IA e recorrer quando necessário.

ChatGPT: Sim, em casos onde as regras e exceções são bem claras é possível permitir que a IA tome decisões autônomas e após a decisão, em caso de recurso, este será decidido por um juiz humano. No entanto, é importante lembrar que as regras e exceções devem ser cuidadosamente definidas para garantir que as decisões de IA sejam justas e equitativas.

 

                    Em uma análise rasa, a partir das teorias de Robert Alexy[14] e Ronald Dworkin[15] sobre as espécies de normas, regras e princípios no direito, pode-se inferir que as regras são mais precisas e validam um direito, porque foram aprovadas por um poder legislativo, outras foram criadas por decisões judiciais em instância superior e assim ficou instituída uma decisão pacífica. Já os princípios e sua origem, enquanto princípios jurídicos, não se encontram em decisões particulares, de poder legislativo ou Tribunais Superiores, e dessa maneira não são normas autenticadas para o aprendizado artificial de uma máquina. Princípios são valores (STRECK, 2020)[16] e sendo assim as máquinas não possuem capacidade de entender.

 

Celso Ferro: Como é possível ter acesso às informações e procedimentos da IA para a compreensão da decisão tomada, a fim de recorrer da decisão quando necessário?

LuzIA: Para garantir o acesso às informações e procedimentos da IA, é importante estabelecer mecanismos de transparência e prestação de contas. Isso pode incluir a divulgação das regras e algoritmos utilizados pela IA, bem como a disponibilização de explicações claras sobre como as decisões são tomadas. Além disso, é necessário garantir que existam canais de comunicação adequados para que os indivíduos possam solicitar informações adicionais, esclarecimentos ou apresentar recursos em caso de discordância com uma decisão tomada pela IA. A transparência e a acessibilidade são fundamentais para garantir a confiança e a justiça no uso da IA em processos decisórios.

ChatGPT: Para garantir a transparência e responsabilidade das decisões de IA, é importante que as informações e procedimentos da IA sejam acessíveis e compreensíveis para os usuários. Isso pode incluir o acesso aos dados usados pela IA para tomar suas decisões, bem como informações sobre como o algoritmo funciona e como as decisões são tomadas. No entanto, é importante lembrar que as informações disponíveis podem ser limitadas pela complexidade do sistema de IA e pela necessidade de proteger informações confidenciais.

 

              É importante frisar que, a falta de transparência pode levar a decisões injustas ou abusivas, pois não há nenhum mecanismo concebido para garantir que os dados fornecidos, para treinar o sistema, não estejam tendenciosos. Por esta razão, é importante que qualquer sistema baseado em algoritmo seja completamente transparente para garantir o acesso a todos os dados relevantes e identificar a origem destes. É sabido que algoritmos[17] complexos de IA podem ser difíceis de entender e interpretar. Isso pode dificultar a explicação das decisões tomadas por esses sistemas, o que vai contra o princípio de transparência do judiciário. É necessário estabelecer diretrizes e regulamentações que garantam a transparência dos processos de tomada de decisão baseados em IA assegurando que as partes envolvidas possam compreender e questionar as conclusões alcançadas.

 

Celso Ferro: A decisão judicial tomada pela IA pode ser fundamentada explicando os motivos e expondo os argumentos que sustentaram a decisão?

LuzIA: No atual estado da tecnologia, as decisões judiciais tomadas pela IA podem ser complexas e baseadas em algoritmos e modelos de aprendizado de máquina. Embora seja possível fornecer uma explicação geral sobre como a decisão foi alcançada, é importante ressaltar que a IA pode tomar decisões com base em padrões e correlações identificadas nos dados, o que pode ser difícil de explicar em termos humanos compreensíveis. No entanto, os esforços estão sendo feitos para desenvolver técnicas de "explicabilidade" da IA, que procuram fornecer justificativas mais claras e transparentes para as decisões tomadas. Essa área de pesquisa está em constante evolução e tem como objetivo aumentar a confiança e a compreensão das decisões tomadas pela IA no contexto judicial.

ChatGPT: Sim, a decisão judicial tomada por uma inteligência artificial pode ser fundamentada explicando os motivos e expondo os argumentos que sustentaram a decisão. A necessidade de que as decisões judiciais sejam fundamentadas é inerente ao Estado Democrático de Direito, pois se apresenta como uma garantia contra o arbítrio e ao devido princípio do devido processo legal, pois o processo justo não se compatibiliza com a discricionariedade jurisdicional.

 

                     O dever de fundamentação das decisões judiciais[18] é um dos pilares do Direito e tem como objetivo garantir que as partes envolvidas no processo tenham acesso aos motivos que levaram à decisão proferida pelo juiz ou no caso específico, pela inteligência artificial.

 

             Cabe ressaltar ainda que a explicabilidade é um dos princípios fundamentais para possibilitar a inteligibilidade e transparência das decisões realizadas por algoritmos. Uma IA explicável significa desenvolver um modelo de sistema de decisões que oferece condições ao usuário ser informado sobre possíveis danos e erros que afetam a efetividade da aplicação, e assim garantir a possibilidade de revisão dessas decisões. Já existem estudos e pesquisas avançadas para o desenvolvimento de algoritmos com capacidade de explicação das decisões.

 

                 De acordo com a jurista Tainá Aguiar Junquilho, a explicabilidade traz à tona o desafio regulatório em equilibrar as (im)possibilidades da tecnologia, às necessidades de limites éticos ao desenvolvimento de IA.  [19]

 

Celso Ferro: Se a legislação estabelecer que em casos específicos a IA pode tomar decisões autônomas, nesse caso não haverá a necessidade da intervenção humana?

LuzIA: Se a legislação estabelecer que em casos específicos a IA pode tomar decisões autônomas, sem a necessidade da intervenção de um juiz humano, isso seria uma mudança significativa no sistema judicial. No entanto, mesmo nessas situações, é importante garantir que a IA seja programada com regras claras e transparentes, para que suas decisões sejam justas e imparciais. Além disso, é importante estabelecer mecanismos de supervisão e responsabilidade para garantir que as decisões da IA sejam sempre revisadas e avaliadas por seres humanos qualificados.

ChatGPT: Sim, se a legislação estabelecer que em casos específicos a IA pode tomar decisões autônomas, nesse caso não haverá a necessidade da intervenção humana. A inteligência artificial tem o potencial de transformar a maneira como o direito é praticado e interpretado, oferecendo benefícios significativos em termos de eficiência e precisão. No entanto, também levanta preocupações em relação à ética, privacidade e responsabilidade.

 

Celso Ferro: Seria o caso de revisar as decisões autônomas da IA por um juiz humano em outra instância judicial?

LuzIA: Sim, em casos nos quais a IA toma decisões autônomas, pode ser necessário que essas decisões sejam julgadas por um juiz humano em outra instância judicial. Isso ajuda a garantir que as decisões da IA sejam revisadas e avaliadas por um ser humano imparcial, assegurando a justiça e a conformidade com os princípios legais. A revisão judicial é um mecanismo importante para salvaguardar os direitos e garantias dos indivíduos envolvidos no processo.

ChatGPT: Sim, é possível que a IA tome decisões autônomas em casos específicos, mas é importante que haja regulamentação e diretrizes éticas para o uso da tecnologia no Judiciário. A utilização da IA para tomada de decisões judiciais levanta questões sobre vieses algorítmicos e questões relacionadas à segurança da informação.

 

A revisão de decisões autônomas da IA por um juiz humano em outra instância judicial é uma possibilidade que já está sendo discutida. Alguns especialistas acreditam que a IA pode ser utilizada tecnicamente como uma ferramenta instrumental, com capacidade de orientar, mas não de efetivamente decidir. Entretanto, há o risco da supervisão humana se tornar uma mera formalidade.

 

Celso Ferro: Quais são as técnicas de análise de linguagem que voce utiliza?

LuzIA: Como assistente de IA, utilizo várias técnicas de análise de linguagem, incluindo processamento de linguagem natural (NLP), aprendizado de máquina (ML), algoritmos de classificação, extração de informações e modelagem de tópicos, entre outros. Essas técnicas me permitem compreender e responder a perguntas, realizar resumos, identificar sentimentos e realizar outras tarefas relacionadas à linguagem.

ChatGPT: Eu utilizo técnicas de análise de linguagem natural para entender o que o usuário está perguntando e gerar uma resposta adequada. Essas técnicas incluem processamento de linguagem natural (PLN), aprendizado de máquina e algoritmos de inteligência artificial.

 

                Destacamos que, o Processamento de Linguagem Natural (PLN) pode ser considerado uma das áreas mais desenvolvidas na Inteligência Artificial Generativa. Sendo assim, as máquinas podem lidar com os textos escritos, documentos, sentenças, leis e doutrinas existentes, e a partir de diferentes análises podem compreender os sentidos de cada frase e proporcionar respostas significativas. O PLN permite que a máquina compreenda o contexto da mensagem, a partir por exemplo, de análises morfológicas, semânticas ou sintáticas e realizar a criação de respostas automáticas que atendam às demandas específicas.

 

                     Conforme explica GROSSMANN (2023) a tecnologia tem avançado em busca de humanização das máquinas e isso está muito relacionado ao processamento de linguagem natural. Como já mencionamos o PLN faz parte do escopo da IA, assim como ocorre, por exemplo, com o machine learning, que também é empregado no sentido de melhorar a comunicação entre máquinas e seres humanos.[20]

 

                      Sistemas e algoritmos de aprendizado de máquina, a força motriz por trás de muitos desenvolvimentos de IAG, são valiosos por causa de sua capacidade de aprender por si mesmos, como detectar padrões úteis em conjuntos de dados massivos e reunir informações de maneiras que produzam previsões ou estimativas, notavelmente, precisas. Muitos sistemas de aprendizado de máquina são treinados em grandes quantidades de dados e ajustam seus próprios parâmetros para melhorar a confiabilidade de suas previsões ao longo do tempo.[21]

 

CONCLUSÃO

 

           E ambas plataformas de IAG, demonstradas nesse trabalho, como uma espécie de recurso tecnológico de mineração[22] de informações, ficou evidenciado que a extração de seus conteúdos e conhecimento foram feitas em fontes oficiais diferentes, conforme indicam as referências específicas no final de cada resposta (que não foram incluídas). Houve discrepância de conteúdo e contextualização em algumas questões, entretanto, não prejudicou o sentido geral das explicações sobre as questões apontadas.

 

                       É importante deixar indiscutível que, a IAG ainda não é a solução para todos os problemas de produção de escrita, muito menos para uma possível utilização na elaboração de sentenças judicias. A IAG não substitui completamente a necessidade de uma revisão humana. É fundamental que os cientistas continuem a seguir as normas e condutas éticas ao utilizar essa ferramenta.

 

                      De acordo com ROSSONI (2022) ainda é cedo para prever exatamente como a IAG transformará a ciência, mas já é possível constatar que essa tecnologia terá um impacto significativo. A IAG pode ser utilizada para analisar grandes volumes de dados, desenvolver modelos preditivos e ajudar a identificar novos padrões e tendências. Com a evolução do PLN, a ciência em todas as áreas, está em vias de transformação e é importante que os cientistas continuem a se preparar para aproveitar ao máximo dessa tecnologia e as contribuições para a ciência.

 

                    Os problemas relacionados a decisões de IA já são bastante conhecidos e explorados pela literatura, estudos sobre sistemas automatizados que geram problemas associados à vieses culturais e preconceitos raciais, de gênero e outros relacionados ao aprendizado de máquinas que prejudicam grupos sociais e étnicos. Pesquisadores salientam, dessa forma, que é preciso definir que tipo de intervenção humana seria qualitativamente apta a suprir o “déficit de humanidade” em decisões sobre as quais recai carga moral ou que produzem impacto sobre direitos fundamentais.[23]

 

                      Por fim, numa sociedade acelerada, como a que se configura atualmente, as organizações e os usuários da informação, têm a necessidade de respostas rápidas e eficientes, que se transformam em importante conteúdo para a tomada de decisões. Trata-se de uma notável revolução, que é o resultado de fatores presentes no mundo como a velocidade, conectividade, intangibilidade[24] e que refletem complexidade, perante o volume das informações e da convergência tecnológica das ações humanas, modificando estruturas da economia, da sociedade, assim como, com poder de provocar grandes transformações nas áreas do executivo, legislativo e judiciário.

 

REFERÊNCIAS BIBLIOGRÁFICAS

 

ALEXY, Robert. Teoria dos Direitos Fundamentais. Malheiros Editores, 2ª Edição, São Paulo. 2012.

DEEKS, Ashley, The Judicial Demand for Explainable Artificial Intelligence. Columbia. L. Rev. __ (2019), Virginia Public Law and Legal Theory Research Paper No. 2019-51, disponível em SSRN: https://ssrn.com/abstract=3440723. Acesso em: 15 ago. 2023.

DWORKIN, Ronald. Levando os Direitos a Sério. Editora WMF Martins Fontes. São Paulo. 3ª Edição. 2014.

GROSSMANN, Igor. Beyond the hype: How AI could change the game for social science research. Disponível em: ttps://theconversation.com/beyond-the-hype-how-ai-could-change-the-game-for-social-science-research-208086. Acesso em 11 ago. 2023.

IRIGARAY, H. A. R.; STOCKER, F. ChatGPT: um museu de grandes novidades. Editorial FGV EBAPE. Disponível em:  https://www.scielo.br/j/cebape/a/FHBLtCcQndXVLGSZhQqnmWn/. Acesso em: 12 ago. 2023.

HOFFMANN-RIEM, Wolfgang. Teoria Geral do Direito Digital: Transformação Digital Desafios para o Direito. Editora Forense. 2ª Edição. 2021.

JUNQUILHO, Tainá Aguiar Junquilho. Inteligência Artificial e Direito: limites éticos. Salvador: Juspodivum, 2022.

KAMINSKI, Margot E., Understanding Transparency in Algorithmic Accountability. Woodrow Barfield, Cambridge University Press (2020)., U of Colorado Law Legal Studies Research Paper No. 20-34, Disponível em: SSRN: https://ssrn.com/abstract=3622657. Acesso em: 15 ago. 2023.

O'NEIL, Cathy. Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Editora Crown Publishing Group. New York. 2016.

STRECK, Lenio Luiz. Dicionário de Hermenêutica Jurídica. Editora Casa do Direito. 2ª Edição. Belo Horizonte, MG. 2020.

STRECK, Lenio Luiz; RAATZ, Igor. O Dever de Fundamentação das Decisões Judiciais sob o Olhar da Crítica Hermenêutica do Direito. Disponível em: https://edisciplinas.usp.br/pluginfile.php/7734705/mod_resource/content/0/Dever%20de%20fundamentação%20L.%20Streck.pdf. Acesso em 18 ago. 2023.

WIMMER, Miriam; DONEDA, Danilo. “Falhas de IA” e a Intervenção em Decisões Automatizadas: Parâmetros para a Legitimação pela Humanização. Revista de Direito Pública. Brasília, Volume 18, n. 100 p. 374-406, out./dez. 2021. Disponível em: https://doi.org/10.11117/rdp.v18i100.6119. Acesso em: 12 jun. 2023.

ROSSONI, R. e Chat GPT. A inteligência artificial e eu: escrevendo o editorial juntamente com o ChatGPT. Revista Eletrônica de Ciência Administrativa. Disponível em: https://doi.org/10.21529/RECADM.2022ed3. Acesso em: 12 ago. 2023.

 

[1] JUNQUILHO, Tainá Aguiar Junquilho. Inteligência Artificial e Direito: limites éticos. Salvador: Juspodivum, 2022.

[2] JUNQUILHO, Tainá Aguiar Junquilho. Op. cit.

[3] HOFFMANN-RIEM, Wolfgang. Teoria Geral do Direito Digital: Transformação Digital Desafios para o Direito. Editora Forense. 2ª Edição. 2021.

[4] Uma rede neural é um método de inteligência artificial que ensina computadores a processar dados de uma forma inspirada pelo cérebro humano. É um tipo de processo de machine learning, chamado aprendizado profundo, que usa nós ou neurônios interconectados em uma estrutura em camadas, semelhante ao cérebro humano. A rede neural cria um sistema adaptativo que os computadores usam para aprender com os erros e se aprimorar continuamente. As redes neurais artificiais tentam solucionar problemas complicados, como resumir documentos ou reconhecer rostos com grande precisão.

[5] HOFFMANN-RIEM, Wolfgang. Op. cit.

[6] Conteúdo extraído da apresentação feita pelo Prof. Dr. Eduardo Moresi no III Seminário Interdisciplinar da Universidade Católica de Brasília. 2023.

[7] ROSSONI, R. e Chat GPT. A inteligência artificial e eu: escrevendo o editorial juntamente com o ChatGPT. Revista Eletrônica de Ciência Administrativa. Disponível em: https://doi.org/10.21529/RECADM.2022ed3. Acesso em: 12 ago. 2023.

[8] ROSSONI, R. e Chat GPT. A inteligência artificial e eu: escrevendo o editorial juntamente com o ChatGPT. Revista Eletrônica de Ciência Administrativa. Disponível em: https://doi.org/10.21529/RECADM.2022ed3. Acesso em: 12 ago. 2023.

[9] LUND, Brady. TING, Wang. Chatting about ChatGPT: How may AI and GPT impact academia and libraries? Disponível em: https://doi.org/10.2139/ssrn.4333415. Acesso em 11 ago. 2023.

[10] IRIGARAY, H. A. R.; STOCKER, F. ChatGPT: um museu de grandes novidades. Editorial FGV EBAPE. Disponível em:  https://www.scielo.br/j/cebape/a/FHBLtCcQndXVLGSZhQqnmWn/. Acesso em: 12 ago. 2023.

[11] Disponível em: https://ucb.catolica.edu.br/portal/evento/iii-seminario-interdisciplinar-do-mestrado-em-direito-e-do-mgti/. Acesso em 30 ago. 2023.

[12] A Apple Developer Academy é um projeto de pesquisa e desenvolvimento aberto a todos os estudantes da Universidade Católica de Brasília que visa capacitar e promover o aprendizado sobre a criação de aplicativos e jogos focados nas plataformas Apple.

[13] Lawtechs são empresas que desenvolvem soluções tecnológicas para otimizar o trabalho no setor jurídico público ou privado. Basicamente a aplicação de plataformas de tecnologia no direito para facilitar a vida dos operadores do direito.

[14] ALEXY, Robert. Teoria dos Direitos Fundamentais. Malheiros Editores, 2ª Edição, São Paulo. 2012.

[15] DWORKIN, Ronald. Levando os Direitos a Sério. Editora WMF Martins Fontes. São Paulo. 3ª Edição. 2014.

 

[16] STRECK, Lenio Luiz. Dicionário de Hermenêutica Jurídica. Editora Casa do Direito. 2ª Edição. Belo Horizonte, MG. 2020.

[17] Ver O'NEIL, Cathy. Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Editora Crown Publishing Group. New York. 2016.

 

[18] Ao longo do tempo, o dever de fundamentação sofreu transformações, sem, contudo, perder seu caráter essencial de garantia contra o arbítrio judicial. Porém, ele deve ser contextualizado a partir dos paradigmas do Constitucionalismo Contemporâneo e do Estado Democrático de Direito, nos quais não mais se admite que o Direito seja predado por discursos morais, políticos e pragmáticos. Desse modo, não se admite, na atual quadra da história, que o dever de fundamentação continue sendo encarado como um mero ônus de justificação racional das escolhas do juiz. Decisão não é escolha, mas, sim, um ato de responsabilidade política da magistratura. Streck, Lenio Luiz; Raatz, Igor. O Dever de Fundamentação das Decisões Judiciais sob o Olhar da Crítica Hermenêutica do Direito. Disponível em: https://edisciplinas.usp.br/pluginfile.php/7734705/mod_resource/content/0/Dever%20de%20fundamentação%20L.%20Streck.pdf. Acesso em 18 ago. 2023.

[19] JUNQUILHO, Tainá Aguiar Junquilho. Inteligência Artificial e Direito: limites éticos. Salvador: Juspodivum, 2022.

 

[20] GROSSMANN, Igor. Beyond the hype: How AI could change the game for social science research. Disponível em: ttps://theconversation.com/beyond-the-hype-how-ai-could-change-the-game-for-social-science-research-208086. Acesso em 11 ago. 2023.

[21]Deeks, Ashley, The Judicial Demand for Explainable Artificial Intelligence (1 de agosto de 2019). 119 Colum. L. Rev. __ (2019 em breve), Virginia Public Law and Legal Theory Research Paper No. 2019-51, disponível em SSRN: https://ssrn.com/abstract=3440723.

[22] Mineração de texto é um processo automatizado para extração de conhecimento de fontes de dados não-estruturadosA mineração de dados (em inglês, data mining) é o processo de encontrar anomalias, padrões e correlações em grandes conjuntos de dados para prever resultados.

[23] WIMMER, Miriam; DONEDA, Danilo. “Falhas de IA” e a Intervenção em Decisões Automatizadas: Parâmetros para a Legitimação pela Humanização. Revista de Direito Pública. Brasília, Volume 18, n. 100 p. 374-406, out./dez. 2021. Disponível em: https://doi.org/10.11117/rdp.v18i100.6119. Acesso em: 12 jun. 2023.

[24] DAVIS, Stan.; MEYER, Christopher. Blur: A Velocidade Da Mudança Na Economia Integrada. Rio de Janeiro: Campus, 1999.