Tramita no Senado o Projeto de Lei (PL) 2.338 que pretende regular o uso da inteligência artificial (IA) no Brasil [1] inspirado em vários aspectos na normativa europeia, buscando compatibilizar uma abordagem baseada em direitos (rights-based approach) com uma abordagem baseada no risco (risk-based approach) [2].
Isso significa, de um lado, uma preocupação com os direitos e premissas éticas aplicáveis, como fairness, responsabilidade, transparência e ética (acrônimo Fate em inglês) em IA, que busca dimensionar o fato de que muitos modelos de IA, a depender do conjunto de dados que o alimenta (dataset) ou das escolhas de arquitetura e abordagem, podem gerar respostas enviesadas (discriminação algorítmica), injustas ou antiéticas.
Nesse aspecto, dentro dos limites que uma norma pode gerar de enforcement no campo da tecnologia, tenta se promover controles, mas ainda carecendo de uma visão adequada da diversidade geocultural [3], na medida em que ainda somos quase totalmente dependentes de modelos de IA gestados pelos big players e de datasets pouco adaptados para nossa diversidade cultural.
No entanto, de outro lado, a proposta legislativa, traz uma outra abordagem. Na medida em que a IA se tornou uma tecnologia de propósito geral, como a eletricidade, ela perpassa todos os aspectos das nossas vidas e oferta riscos variáveis a depender de seus usos, trazendo grandes benefícios, mas impondo potenciais danos.
Gera-se a conhecida abordagem embasada em riscos (categorização de riscos — artigos 13 a 18 do PL) [4], com destaque para os modelos de risco excessivo e de alto risco.
Pontue-se que a administração da justiça é considerada um campo de modelagem de IA de alto risco, no artigo 17, VII [5].
Todavia, o PL não deixa claro que, em especial, após o advento do uso mais corrente de modelos de fundação [6], como v.g. os GPTs e o Bert, que servem de base para as IAs generativas (GEN AIs como ChatGPT, Midjourney, Gamma.app etc) com propósitos bem diversificados, a simples classificação de riscos não será suficiente para estabelecer uma governança adequada. Inclusive os eurodeputados estão propondo a necessidade de um resumo dos dados de treinamento desses modelos cobertos pela lei de direitos autorais desses novos modelos [7].
É fundamental reconhecer que até as Inteligências Artificiais analíticas, mais tradicionais, apresentam riscos. Foi, de fato, a partir delas que emergiram inquietações relacionadas a discriminações algorítmicas, como evidenciado pelo conhecido caso do Compas [8].
Destaque-se que, um dos temas mais sensíveis nas propostas de regulamentação refere-se à adoção de cláusulas gerais e conceitos indeterminados. Um deles é o termo “técnicas subliminares” que se refere a instrumentos que visam coibir práticas reconhecidas que buscam influenciar indivíduos, induzindo a certos comportamentos. Essa influência varia desde estímulos simples para compras até interferências significativas em eleições, afetando a própria sustentação da democracia. Portanto, a preocupação com o uso de sistemas de IA para manipulação já é antiga.
O que muitos desconhecem é que tais regulações não podem se limitar ao controle das tecnologias de IA, uma vez que tal indução de comportamentos passa pelo uso do design comportamental (e seus padrões obscuros — dark patterns) [9] que se vale da utilização do conhecimento dos processos decisórios humanos, que trabalham com racionalidade limitada.
Em verdade, a virada tecnológica no direito [10] importa uma análise das questões jurídicas mediante uma visão interdisciplinar sobre os efeitos da tecnologias da informação e comunicação, com destaque para IA, somado ao do uso do design comportamental (e persuasivo), mediante o emprego da psicologia cognitiva comportamental [11] e da neurociência.
Nesses termos, as regulações propostas são limitadas por não entender a extensão do problema e ao usar termos amplos e indeterminados, terão um grande desafio de aplicação (enforcement)
Frequentemente, emprega-se o termo “técnicas subliminares” para referir-se a aplicações de IA consideradas de risco excessivo (proibidos).
O projeto de Lei da IA da União Europeia as define e as proíbe no seu artigo 5º, 1, “a” nos seguintes termos: “estão proibidas as seguintes práticas de inteligência artificial: a) a colocação no mercado, a colocação em serviço ou a utilização de um sistema de IA que empregue técnicas subliminares que contornem a consciência de uma pessoa para distorcer substancialmente o seu comportamento de uma forma que cause ou seja suscetível de causar danos físicos ou psicológicos a essa ou a outra pessoa” [12].
Inspirado no AIA Act o artigo 14 do projeto de lei 2338/23 brasileiro veda o uso de técnicas subliminares, as definindo como de risco excessivo, do seguinte modo: “são vedadas a implementação e o uso de sistemas de inteligência artificial: I – que empreguem técnicas subliminares que tenham por objetivo ou por efeito induzir a pessoa natural a se comportar de forma prejudicial ou perigosa à sua saúde ou segurança ou contra os fundamentos desta Lei”.
Nesses termos, além da insuficiência da norma em termos de enforcement não se traz uma conceituação adequada do que se trata.
Tradicionalmente, “subliminar” refere-se a estímulos que escapam à percepção consciente, mas ainda influenciam o comportamento, como imagens exibidas por um tempo extremamente curto. Definir técnicas subliminares de forma restrita, como simples estímulos sensoriais imperceptíveis, é problemático porque muitas formas potencialmente manipuladoras de influência não se enquadram nessa categoria [13].
As técnicas de manipulação problemáticas muitas vezes não se escondem apenas no nível sensorial, mas também na intenção, no método e no efeito da influência. Por exemplo, os usuários podem não saber que o conteúdo online que veem é adaptado especificamente para eles (microdirecionamento) [14], nem compreender os métodos ou os efeitos dessa adaptação [15].
Uma proposta de definição para técnicas subliminares poderia identificá-las como aquelas que buscam influenciar o comportamento de uma pessoa sem que ela esteja ciente da tentativa de influência, de como essa influência opera, ou dos seus efeitos nas decisões e crenças da pessoa. Isso deixa claro o enfraquecimento de sua autonomia privada e de seu consentimento informado. Esta definição inclui a maioria das formas preocupantes de influência impulsionada pela IA e fornece uma estrutura mais aplicável.
Para que a regulação seja eficaz, é crucial que “técnicas subliminares” sejam definidas de maneira abrangente, abordando todas as formas potencialmente manipuladoras de influência, para garantir a proteção dos usuários sem sobrecarregar os prestadores de serviços.
Em recente estudo sobre o tema no AI Act, Bermúdez et al propõem uma definição. Segundo eles:
a escolha de técnicas subliminares como alvo da proibição pode levar a interpretações da proibição que são demasiado restritas para abordar os problemas mais graves e formas generalizadas de manipulação problemática, ou a uma leitura que é tão ampla que impõe encargos proibitivos a qualquer organização que pretenda desenvolver ou utilizar sistemas de IA. Para evitar ambos os extremos, propomos uma definição que identifica as técnicas subliminares como as técnicas de influência em que o agente influenciado permanece previsivelmente inconsciente do estímulo influenciador, da forma como as técnicas operam ou dos seus efeitos nos seus valores, crenças e decisões. Esta definição baseia-se em opiniões amplamente partilhadas sobre a autonomia pessoal, oferece uma interpretação coerente do texto jurídico e fornece orientação ética para a prática de desenvolvimento tecnológico [16].
Uma abordagem que talvez mereça ser somada a essa sejam os comandos propostos de regulação de design (como no projeto de Detour Act americano). Se aprovada, a legislação autorizará a Comissão Federal de Comércio dos EUA a avaliar se uma ação ou conduta é injusta ou enganosa ao “comprometer ou ameaçar a liberdade de escolha do usuário, ao solicitar consentimento ou dados, ou ao incentivar o uso obsessivo por crianças”. O texto define “experimento ou pesquisa comportamental ou psicológica” como “análise das ações visíveis ou dos processos mentais, percebidos através do comportamento, incluindo as interações individuais e coletivas” [17].
Será proibido, caso aprovado, para grandes plataformas online [18]:
1) Alterar ou configurar interfaces para comprometer a livre escolha ou autonomia do usuário ao solicitar consentimento ou dados;
2) Segmentar os usuários em grupos específicos para pesquisas comportamentais ou psicológicas sem o consentimento expresso de cada usuário;
3) Modificar interfaces em plataformas destinadas a crianças com o propósito de estimular uso excessivo, incluindo vídeos que são reproduzidos automaticamente sem a autorização do usuário.
Além disso, a proposta impõe obrigações aos grandes provedores, reforçando a necessidade de obter consentimento claro e informado dos usuários.
Destaca-se, finalmente, como pressuposto desse debate, que já se defende a imperatividade de reconhecer novos direitos fundamentais, os neurodireitos, que salvaguardem a liberdade cognitiva e os direitos concernentes à privacidade mental, integridade mental e continuidade psicológica [19], para defesa e preservação da autonomia privada [20], conforme já previsto na Constituição Chilena [21].
Vê-se, assim, que a regulação da IA e de seus impactos em ambientes decisórios precisa ser realizada com uma abordagem essencialmente interdisciplinar e ampla, de modo a promover um controle sofisticado para uma tecnologia em avanço constante, sem gerar uma barreira à inovação.
[10] NUNES, Dierle. Virada tecnológica no direito processual: fusão de conhecimentos para geração de uma nova justiça centrada no ser humano. RePro. V. 344. 2023.
[18] Entendido o “termo ‘grande operador online’ como qualquer pessoa que (A) fornece um serviço online; (B) tenha mais de 100.000.000 usuários autenticados de um serviço online em qualquer período de 30 dias; e (C) está sujeita à jurisdição da Comissão sob a Lei da Comissão Federal de Comércio (15 USC 41 et seq.)”.
Dierle Nunes é professor da UFMG e da PUC-Minas. Membro honorário da Associação Iberoamericana de Direito e Inteligência Artificial. Diretor do Instituto Direito e Inteligência Artificial (Ideia). Doutor em Direito pela PUC-Minas/Universitá degli Studi di Roma “La Sapienza”.