Para MPs, ChatGPT deve ser incorporado ao Direito, mas com cuidado

No entendimento de várias unidades do Ministério Público brasileiro, os riscos envolvidos no uso de ferramentas de inteligência artificial como o ChatGPT não são suficientes para recomendar a sua proibição. Pelo contrário: para esses órgãos, a perspectiva de vantagens é muito alta, desde que sejam adotadas as devidas cautelas, especialmente em relação à custódia de dados.

Essa conclusão consta de manifestações enviadas ao Conselho Nacional do Ministério Público, que está se debruçando sobre o tema para decidir se cabe regulamentar o uso desse tipo de tecnologia por meio de resolução.

Tecnologia de IA está sendo incorporada nas mais diversas atividades do Judiciário

Dollar Photo Club

A discussão foi levantada pelo advogado Fábio de Oliveira Ribeiro, que pediu ao CNMP que proibisse promotores e procuradores brasileiros de recorrer ao ChatGTP para elaborar ou fundamentar denúncias, pedidos de arquivamento e outras manifestações nos casos concretos em que atuam.

O pedido de providências foi indeferido liminarmente pelo conselheiro Gustavo Badaró. O advogado, então, recorreu e sensibilizou o relator com um argumento sobre o destino das informações que eventualmente forem fornecidas a essas ferramentas: “Elas serão armazenadas no banco de dados do ChatGTP. Portanto, ao utilizá-la o promotor violará seu dever de preservar o sigilo das informações a que tem acesso”.

Em decisão de abril, Badaró sugeriu aos procuradores-gerais e corregedores do MP que orientassem as unidades sobre os riscos de lançar informações processuais sensíveis, sigilosas ou pessoais em banco de dados privado, não passível de fiscalização e controle por parte do Estado. E pediu manifestações das respectivas Secretarias de Tecnologia sobre o tema.

Até o momento, ele recebeu 20 respostas, incluindo uma nota técnica elaborada pelo Grupo Nacional de Tecnologia da Informação do Conselho Nacional de Procuradores Gerais, composto por membros e servidores dos MPs estaduais e Federal e encampado por diversas unidades do órgão.

Proibido proibir

Se há um consenso entre os braços do MP brasileiro sobre a inteligência artificial, é o de que não é recomendável proibir seu uso. Segundo a Associação Nacional dos Membros do Ministério Público (Conamp), a IA em breve estará inserida nos mecanismos de busca. Seria como se, há 20 anos, o CNMP tivesse regulamentado o uso do Google.

O MP do Paraná defende que chegou o momento de fazer o teste de compatibilidade entre o uso da inteligência artificial e as normas da ética e dos direitos fundamentais. E que a instituição não pode, neste momento da história, ficar presa ao passado diante das dificuldades até mesmo regulatórias.

“Corre o risco de tomar-se uma instituição obsoleta ou desmoralizada em face de escritórios de advocacia, de plataformas privadas de solução de conflitos (denominadas ODRs) e até mesmo do Poder Judiciário, que já utilizam os sistemas de inteligência artificial para a solução de conflitos”, afirma o MP paranaense na manifestação ao CNMP.

Conselho Nacional do Ministério Público vai avaliar se edita resolução sobre o tema

Sérgio Almeida/CNMP

Mesmo a proposta de regulamentação é desaconselhada. Isso porque mecanismos como o ChatGPT estão em constante desenvolvimento e evolução, e o cenário atual não é estável o suficiente para delimitar seu uso, seus riscos e mesmo seus benefícios. Quaisquer normas editadas hoje sobre o tema podem se tornar obsoletas em questão de meses.

O MP de Santa Catarina sugere que o CNMP se restrinja a fazer uma recomendação para apontar as formas de uso a serem seguidas. Pede também debates amplos e contínuos sobre a utilização dessas tecnologias, para “garantir que as cautelas exigidas não sejam óbice para que o Ministério Público brasileiro acompanhe os avanços tecnológicos”.

O MP da União, por sua vez, entende ser prematura qualquer decisão sobre tais tecnologias, seja para proibi-las ou para adotá-las. E, como exemplo, incluiu em sua manifestação as respostas que o ChatGPT deu para a pergunta “quais os principais riscos na utilização de ferramentas de inteligência artificial no Poder Judiciário?”.

Custo-benefício

As perspectivas para o uso da IA, segundo as manifestações dos MPs, são muito boas não apenas para atividades administrativas, mas também judiciais. Em uma instituição com limitação de recursos e de pessoal, torna-se interessante a possibilidade de processar e analisar grandes volumes de dados, além do auxílio em tarefas rotineiras.

A Conamp cita dois exemplos banais: a busca sobre autores que tenham abordado determinado campo do Direito em seus trabalhos e a pesquisa por antecedentes criminais. Afinal, questiona a entidade, por que alguém deve fazer essas tarefas manualmente se a inteligência artificial é capaz de fornecer respostas em poucos segundos?

O Ministério Público do Trabalho, por sua vez, cita o uso de IA para elaboração de resumos, revisão de textos, geração de rascunhos e classificação de material. E o MP do Maranhão conclui pelo “potencial indiscutível como recurso para subsidiar análises e decisões no âmbito das atividades ministeriais”.

Para a Procuradoria-Geral da República, o ChatGPT e as ferramentas análogas podem até ser treinados para procurar por palavras-chave e outros indicadores de possíveis fraudes, corrupção e outras ilegalidades, levando a uma maior eficácia do combate a essas práticas.

Já os problemas mencionados pelo órgão não diferem dos que são comumente apontados por especialistas em tecnologia. As soluções de inteligência artificial podem oferecer respostas falsas, errôneas ou enviesadas, por estarem sujeitas à manipulação maliciosa dos dados que alimentam seu algoritmo. Algumas delas são opacas sobre seu funcionamento, o que dificulta a avaliação crítica de seus resultados.

Esses programas não atendem a padrões éticos, sociais, culturais, ambientais e de compliance. O principal risco passa pelo uso de dados pessoais e sensíveis sob tutela do Ministério Público. No entanto, mesmo essa preocupação encontra uma resposta adequada nas manifestações enviadas ao CNMP.

Advogado peticionou ao CNMP apontando o risco de promotores e procuradores usarem ChatGPT para redigir peças processuais

Divulgação

Base de dados de quem?

O parecer do Conselho Nacional de Procuradores-Gerais aprofunda o tema ao explicar que existem duas formas de uso do ChatGPT. Uma delas é por API (Application Programming Interfaces), ou nuvem no repositório central. Nesse caso, todos os dados inseridos na ferramenta servem para treiná-la e aprimorá-la, passando a integrar sua base de conhecimento.

É nesse modelo que surge a possibilidade de tráfego internacional de dados pessoais e descumprimento da Lei Geral de Proteção de Dados (LGPD). Diversas manifestações enviadas ao CNMP sugerem como saída a anonimização de documentos e recomendam cuidado redobrado na inserção de informações.

A outra forma de uso do ChatGPT oferece uma alternativa viável: com datacenters ou instâncias de nuvem isolados do repositório central. Nesse caso, o modelo de IA é treinado e alimentado com dados da própria organização, sem compartilhar essa base de conhecimento com a base geral.

“Dessa forma, é possível utilizar toda a potência da ferramenta, com o uso de dados da organização de maneira segura. Além disso, essa abordagem permite maior controle sobre o processamento e o armazenamento de dados, reduzindo os riscos de vazamento de informações confidenciais e violações de privacidade”, resume o documento do Conselho.

O MP do Trabalho, por sua vez, acrescenta ao tema a possibilidade de cláusulas de sigilo, confidencialidade e hospedagem nos termos de uso de produtos de software que porventura sejam usados pelo órgão. Já a PGR sugere a capacitação dos usuários internos e a definição de uma forma segura e balizada de uso.

Tudo isso aponta para uma evolução e um amadurecimento do uso da IA pelo Ministério Público. O MP da Paraíba diz que tais tecnologias geram um “despertar para a responsabilidade das auditorias e áreas de gestão de riscos e para a necessidade de definição e implementação de processos claros, bem como de seu monitoramento”.

E o MP do Rio de Janeiro elenca, entre as medidas de mitigação de risco, a criação de órgãos independentes de supervisão, a transparência na utilização de algoritmos e ferramentas de IA e a integridade na tutela dos dados e das informações, além de boas práticas de privacy by design e compliance.

Para o MP do Paraná, a melhor solução são os convênios com empresas que prestem o mesmo serviço, com inserção de cláusulas que garantam o tratamento adequado aos titulares dos dados. “Dessa forma, a responsabilidade pelo tratamento dos dados estará delineada em contrato, podendo o agente ministerial usar a plataforma sem risco de violação à Lei Geral de Proteção de Dados.”

Todo mundo usa

O tom de “caminho sem volta” com que a maioria das manifestações enviadas ao CNMP trata o uso da inteligência artificial é reforçado no documento do MP da Paraíba, que destaca que a Ordem dos Advogados do Brasil não proibiu os advogados de utilizarem as ferramentas, tendo até incentivado o seu uso. “O próprio representante, até onde se tem conhecimento, não buscou a aplicação de medida proibitiva equivalente perante o seu órgão de representação”, diz a peça.

Fábio de Oliveira Ribeiro já experimentou pessoalmente os riscos de usar o ChatGPT na função de advogado. Em abril, ele usou a ferramenta para criar uma petição para uma das ações em que o Tribunal Superior Eleitoral vai julgar o ex-presidente Jair Bolsonaro por abuso de poder político. Acabou multado por litigância de má-fé em R$ 2,6 mil pelo ministro Benedito Gonçalves.

O episódio foi usado para peticionar ao Conselho Nacional de Justiça para que proíba juízes de decidir com ajuda do ChatGPT. O tema está sendo analisado pela Comissão de Tecnologia da Informação e Inovação. Após parecer, poderá ser regularmente instruído e apreciado pelo Plenário do CNJ.

O advogado também pediu ao Ministério da Justiça a elaboração de um projeto de lei exatamente para proibir os juízes brasileiros de usar a tecnologia para decidir. E o tema não passa ao largo do Judiciário. Especialista no assunto, o ministro Ricardo Villas Bôas Cueva. do STJ, tem se manifestado sobre a necessidade de a sociedade como um todo estabelecer um marco regulatório para a inteligência artificial.

Consultor Júridico

Facebook
Twitter
LinkedIn
plugins premium WordPress

Entraremos em Contato

Deixe seu seu assunto para explicar melhor