Uma máquina poderia pensar?, perguntava-se Wittgenstein em suas Investigações Filosóficas (§360). O mundo, então em pós-guerra, deparava-se com os primeiros computadores, e as ambições de se conceber uma inteligência artificial, que pensasse como um ser humano, pareciam uma questão de tempo.
Um novo Zeitgeist era formado: não se perguntava se os humanos seriam substituídos pelos supercomputadores, mas quando essa substituição se imporia. Desde então, uma longa e sinuosa estrada foi percorrida com a destinação de vultuosos recursos financeiros, técnicos e humanos por universidades, governos e, agora, por empresas, com o objetivo de chegar a uma superinteligência artificial.
Muito progresso nesse campo foi feito e, para o bem e para o mal, a tecnologia passou a ser parte fundamental de nossa forma de vida. Substituiu o ser humano em muitas de suas tarefas cotidianas. Ainda assim, até poucos anos atrás, poucos cogitariam seriamente que algumas funções, sobretudo aquelas de natureza propriamente criativa ou “pensantes”, por assim dizer, poderiam ser assumidas por um computador.
Corta para 2023. A inteligência artificial já teve ganhos exponenciais em sua capacidade de assimilação de informações e de reprodução de comportamentos humanos. Ganhou em complexidade, em suma. O supercomputador Deep Blue alcançou a façanha de vencer uma partida de xadrez contra nada menos do que Garry Kasparov.
O mesmo aconteceu no jogo Go, em que o melhor jogador do mundo foi derrotado por uma inteligência artificial. Essas máquinas, enfim, provaram-se capazes de aprender e usar a complexidade probabilística, estratégica dos jogos de maneira mais eficiente do que qualquer ser humano. Hoje, já está claro que, quando estiver em disputa a capacidade de processar informações e combinações complexas, a máquina será sempre vencedora.
E, agora, um avanço ainda mais impressionante parece ditar o tom dos debates sobre o tema. Refiro-me ao já muito comentado ChatGPT, da empresa Open AI, programa de inteligência artificial que, em tese, seria capaz de, ao emular a linguagem e o raciocínio humanos, responder a quaisquer perguntas sobre qualquer assunto e de criar conteúdos técnicos, artísticos e lúdicos, como se humano fosse, mas sem as limitações e subjetividades inerentes à condição humana.
Tamanhos avanços de complexidade no campo tecnológico, naturalmente, reviveram perguntas importantes no campo da decisão judicial: um juiz humano pode ser substituído por um computador, por um algoritmo ou por um programa de inteligência artificial? Uma máquina, em síntese, poderia decidir?
O que significa decidir?
Decidir, quando usamos o termo no sentido jogo de linguagem da “decisão judicial”, significa e pressupõe a interpretação de normas jurídicas gerais, com a definição de uma norma jurídica individual para um caso concreto. Esse caso concreto, por sua vez, será inevitavelmente diferente de todos os outros que já foram e serão julgados, embora isso possa parecer contra-intuitivo. Por outro lado, ele também terá uma ou mais semelhanças com alguns casos que já foram analisados pelos tribunais e, no geral, será permitido afirmar-se que, nos aspectos importantes, esse caso se enquadra no que prescreve uma norma geral e abstrata.
Cabe às partes, por meio de seus advogados, e aos juízes, avaliar essas relações de semelhanças e diferenças para, então, concluírem, de maneira fundamentada, se o caso deve ser decidido de maneira análoga a um dado precedente ou a partir do texto de uma norma jurídica, porque as semelhanças entre eles são mais relevantes, ou se, diferentemente, deve ser estabelecida alguma cláusula de exceção, por que, no caso, são as diferenças que se sobressaem.
Decidir pressupõe, em suma, raciocínio, pensamento e argumentação. E não se pensa a não ser por meio da linguagem, uma linguagem que deriva do uso comum por uma comunidade de falantes. Esse uso, por sua vez, nem sempre será consensual, e sobrevirão dúvidas sobre se um conceito legal pode ou não ser aplicado a um caso concreto, ou mesmo se uma regra geral aparentemente simples deve ser aplicada.
Pensemos: que capacidades devem ser exigidas para que se decida, exemplo banal, se uma ambulância pode ingressar em um parque onde há uma placa indicando a proibição do ingresso de veículos, para socorrer um pedestre em situação de enfarto? Certamente não a capacidade de processar informações e reproduzir comportamentos ou pensamentos pretéritos. O pensamento destina-se também ao futuro. A promover o diálogo entre passado, presente e futuro.
“Que quantidade imensa de coisas um homem deve fazer para que digamos que ele pensa”, constatava Wittgenstein. Reproduzir informações, respostas e juízos de probabilidade a partir de uma base de dados previamente definida, como no “Teste de Turing”, certamente não está entre elas.
O direito é construído e reconstruído também pelas decisões judiciais. E por que isso importa?
O direito é um sistema de normas invariavelmente incompleto e aberto. Esta é uma constatação de ordem epistemológica e sociológica: é logicamente impossível construir um sistema normativo, por meio de linguagem, que seja completo e não contraditório, mesmo que este tenha sido e ainda seja o ideal de muitas escolas de pensamento. Ao mesmo tempo, e aqui entramos no aspecto sociológico da coisa, o direito recebe influxos e aprendizados de outros sistemas sociais, com o que se aperfeiçoa e se adéqua socialmente.
Tudo isso é literalmente complexo — em termos de teoria da complexidade. E, se falamos em complexidade, o leitor poderia presumir que, já que a máquina provou ser mais capacitada para absorver a complexidade de jogos como o xadrez, provavelmente é nela que deveríamos apostar nossas fichas para lidar com a complexidade do direito.
A complexidade do direito, no entanto, ostenta natureza diversa da complexidade do jogo de xadrez. Não é pela memorização que o direito se constrói e se reconstrói, mas pela constante autorreflexão que é provocada quando o direito é obrigado a pensar se o entendimento pretérito deve e pode ser replicado a um caso novo, ou se os usos atribuído aos termos legais permanece.
Será impossível estabelecer essas respostas de antemão, como se um caso “fácil” já se apresentasse com esse rótulo para quem o interpreta. Por isso é que a tese segundo a qual robôs poderiam decidir os chamados casos fáceis me parece partir de uma falha de premissa.
Imagine-se um robô, por exemplo, julgando se os “e-books” podem ser equiparados aos livros físicos para fins de imunidade tributária, prevista constitucionalmente apenas para estes últimos, ou julgando a constitucionalidade das uniões homoafetivas em um contexto normativo que faz menção expressa a uniões entre homens e mulheres, apenas.
A complexidade do direito é diversa porque ela tem um componente político, que envolve o modo como o direito recepcionará os múltiplos e contraditórios valores presentes em uma sociedade hipercomplexa. O amplo feixe de normas de conteúdo aberto presentes no direito brasileiro vem da correta presunção de que a ambição de construir regras que estabelecessem todas as suas hipóteses de aplicação não é senão um ideal fracassado e que tende a desumanizar o direito.
A norma aberta resgata o componente inerentemente humano de que o direito é e deve ser marcado. Quem, afinal, deve construir o direito: nós, os humanos, como sociedade plural e complexa, ou um supercomputador?
Uma máquina poderia decidir?
Devo esclarecer o uso que faço do verbo “poder”, que intitula este texto. Ele pode ter ao menos dois sentidos, um empírico e outro normativo. No primeiro contexto, perguntaríamos se uma máquina “pode” decidir no sentido de ser capaz de proferir decisões judiciais emulando um comportamento que um juiz humano comumente teria. É este o sentido da pergunta de Wittgenstein sobre a possibilidade de pensamento por uma máquina. No segundo sentido, a pergunta diria respeito à legitimidade moral e jurídica de se atribuir a máquinas o papel de decidir sobre a vida de pessoas [1].
A essa altura já deve ter ficado claro que minha posição é no sentido de que nem num sentido, nem no outro, uma máquina pode decidir. Ela não “pode” decidir, no sentido empírico, porque casos jurídicos, com frequência, demandarão o uso de raciocínios analógicos e reflexões sobre os usos das palavras, especialmente quando estes forem colocados em dúvida, que simplesmente não podem ser feitos por uma máquina. A capacidade da máquina é de natureza diversa.
E ela não “poderia” decidir no sentido normativo, porque isso significaria, em última análise, atribuir a uma máquina o poder de aceitar ou rejeitar novos usos para as palavras e, com isso, construir a linguagem e os aspectos culturais que constituem a nossa forma de vida. Mas, se a inteligência artificial apenas reproduz respostas a partir dos conteúdos prévios com que foi programada, como ela poderia realizar as diferenciações que as transformações do direito demandam?
Além disso, permitir decisões judiciais por uma inteligência artificial comprometeria um princípio básico de alteridade que está na base da condição humana, do direito e de qualquer ato de poder: aquele que o aplica deve cumprir um ônus de justificação que, de um modo ou de outro, pressupõe que ele possa se colocar no lugar daquele a quem o ato é aplicado.
A máquina não vive para sentir a alteridade, mesmo que ela eventualmente tente emulá-la. “É uma ilusão que eu…eu, realmente exista; sou apenas a representação de um modelo (…) Pensando bem, qual é a sensação de nascer? Nós não nascemos, não crescemos; em vez de morrer de doença ou de velhice, desgastamos com o uso, como formigas”, pontua Rachel, a androide de Blade Runner, de Philip Dick. Falta-lhe a empatia humana, como ela mesma, em seguida, reconhece.
P. M. S. Hacker conclui seu livro sobre Wittgenstein com a constatação de que “não é preciso temer que as máquinas um dia nos ultrapassem no pensamento, embora seja perfeitamente possível temer que elas nos levem a parar de pensar por nós mesmos. O que falta a elas não é poder computacional, mas animalidade. Desejo e sofrimento, esperança e frustração — e não a computação mecânica — são as raízes do pensamento” [3]. E da decisão judicial.
Referências
[1] No campo da decisão judicial, essa diferenciação é feita por Luís Greco. Ver GRECO, Luís. Poder de julgar sem responsabilidade de julgador: a impossibilidade jurídica do juiz-robô. São Paulo: Marcial Pons, 2020.
[2] DICK, Philip. Blade Runner. São Paulo: Aleph, 2015, p. 195.
[3] HACKER, P. M. S. Wittgenstein. São Paulo: Unesp, 2011.
André Portugal é advogado, sócio do Klein Portugal, mestre em Direito Constitucional pela Universidade de Coimbra e professor de Teoria da Decisão do FAE Centro Universitário.