Lucas Reckziegel: IA, direitos humanos e democracia na Europa

Neste mês passou-se a difundir o consolidated working draft, para uma convenção sobre Artificial Intelligence, Human Rights, Democracy and the Rule of Law [1], em sede de Conselho da Europa.

O texto foi apresentado em 7 de julho de 2023, em Estrasburgo (França), com a finalidade de servir de base para futuras negociações para a pactuação de uma convenção relacionada ao tema.

Tenciona-se aqui neste artigo apontar algumas das características do aludido projeto, demarcando-se, resumidamente, os seus contornos  que se acredita  centrais.

Nos considerandos do projeto, destaca-se a dúplice perspectiva generalizadamente incorporada quando de estudos ou planejamentos de estruturas jurídico-normativas referentes à inteligência artificial e direitos humanos: ao mesmo tempo de existirem potencialidades tecnológicas capazes de ampliarem a “eficácia” de suas incidências (a destacar, no âmbito da saúde) há um proporcional risco, que merece ser analisado, ponderado e incorporado nas diretrizes normativas existentes, e naquelas que se propugna constituir e desenvolver.

Coloca-se uma preocupação com a discriminação em contextos digitais, ou a instrumentalização da aludida tecnologia, por determinados estados, com repressive purposes, incluindo-se arbitrary or unlawful surveillance and censorphip practices that erode privacy and autonomy.

Há, demais, nos considerandos, uma afirmação relacionada a um compromisso necessário, prioritário, de se conceber um diploma jurídico globalmente vinculativo, gerador de parâmetros para a idealização de design, desenvolvimento, uso e descomissionamento de sistemas de inteligência artificial, que sejam respeitadores de normatividades comuns, reconhecendo-se, ainda, a relevância da promoção de literacia digital.

Justamente, afirma-se a necessidade de todas as partes aproximarem-se para um compromisso para a proteção aos direitos humanos, à democracia, e ao rule of law, mediante estruturações legais, éticas e tecnológicas não discriminatórias, accountable, seguras, transparentes, explicáveis e articuladas para a promoção e respeito da dignidade e agência humana, mediante um arcabouço que, igualmente, considere a relevância da privacidade e da governança de dados no desenvolvimento da tecnologia objeto.

No artigo 2 sugere-se uma redação relacionada a produção legal trabalhada com uma abordagem de risco (risk-based approach), espelhando-se as discussões e concordâncias nos projetos regulatórios existentes na Europa, bem como, no substitutivo brasileiro.

Com o artigo 3 registra-se um conceito legal de sistema de inteligência artificial, significando qualquer sistema ou combinação de sistemas algorítmicos que empreguem métodos computacionais derivados de estatísticas ou outras técnicas matemáticas que gerem textos, sons, imagens ou outro conteúdo ou que assista ou substituta uma decisão humana.

 No artigo 4, coloca-se o escopo da convenção. Direciona-se a incidência da futura convenção para aqueles sistemas de inteligência artificial que possuem o potencial de interferir com o respeito a dignidade humana e com as liberdades fundamentais, com o funcionamento da democracia e com a observância do rule of law.

Destaca-se, no 4.2, que, não haveria a aplicação da convenção quando os sistemas de inteligência artificial estivessem sendo utilizados em sede de pesquisa, salvo se identificados potenciais riscos aos institutos normativos salientados previamente (Capítulo I – Provisões Gerais).

Destina-se aos estados a obrigação de estabelecerem mecanismos que garantam a integridade dos processos democráticos e o respeito ao rule of law, em especial, resguardando-se que os sistemas de inteligência artificial não sejam instrumentalizados para diminuir a integridade, a independência e a efetividade das instituições e processos democráticos, incluindo-se a independência judicial e o princípio estruturante da separação dos poderes (Capítulo II – Obrigações Gerais).

Imprime-se a necessidade de as partes observarem os princípios comuns aplicáveis ao design, desenvolvimento, uso e descomissionamento de sistemas de inteligência artificial incorporados na convenção, de modo a existir acomodações adequadas nas legislações domésticas. Cada parte deve providenciar mecanismos que garantam a transparência, accountability e responsabilidade específicos a contextos, e aos empregos de sistemas de inteligência artificial aí inseridos.

Demanda-se um olhar vinculado a igualdade, a não discriminação, a privacidade e a proteção de dados, que devem estar incorporados nos parâmetros normativos atinentes à programação de sistemas de inteligência artificial.

Nesse espectro, direciona-se a cada parte a obrigação de assegurar um adequado, seguro e robusto desenvolvimento tecnológico relacionado a sistemas de inteligência artificial, havendo-se de se respeitar condições de data quality, data integrity, data security e cybersecurity.

Aliás, nessa esteira, conduz-se a cada parte, a construção de um ambiente regulatório controlável, under the supervision of its competent authorities, quando em processos de testes de inteligência artificial para pesquisa e inovação (artigo 12 — safe innovation) (Capítulo III – Princípios de design, desenvolvimento, uso e descomissionamento de sistemas de inteligência artificial).

Em outra seção do documento proposto, delineia-se às partes a incumbência de se estabelecer nos regimes jurídicos domésticos, instrumentos capazes de remediarem potenciais ou efetivas violações a direitos humanos e às liberdades fundamentais, resultantes do uso de sistemas de inteligência artificial.

Estabelece-se diretrizes no artigo 13, a., as quais referem que, os instrumentos, para serem considerados apropriados, hão de registrar quando do uso “relevante” de sistemas de inteligência artificial, fornecendo-se acesso as devidas informações aos órgãos competentes e, quando “apropriado e aplicável”, comunicando-se e disponibilizando-se o material a pessoa afetada.

Considera-se, antevendo-se no artigo 13.b., medidas apropriadas para garantir a relação previamente descrita, que sejam suficientes e proporcionais para uma possibilidade efetiva das pessoas afetadas contestarem o uso do sistema e a(s) decisão(ões) tomada(s) ou substancialmente assistida(s) pelo uso do sistema.

Com o artigo 14, invoca-se a necessidade de se estabelecer garantias procedimentais (procedural safeguards) a todas as pessoas afetadas (ou potencialmente afetadas), em especial em contextos nos quais o sistema de inteligência artificial ‘substancialmente informe ou tome decisões’ que, provavelmente, poderão impactar os direitos humanos e as liberdades fundamentais.

Indica-se o direito de saber se está-se interagindo com um sistema de inteligência artificial, em detrimento de uma pessoa, a não ser que se trate de circunstâncias em que a seja óbvia, considerando-se o contexto e a sua adequação, que a relação está sendo constituída com uma inteligência artificial; ainda, quando apropriado, há de se providenciar a oportunidade de interagir com uma pessoa, em complemento, ou, em substituição ao sistema de inteligência artificial inicialmente alocado para a interação (Capítulo IV — Remedies).

Encabeçado no artigo 15 — Risk and impact management framework, densifica-se a “opção” sobre uma abordagem risk-based, registrada no art. 2, anteriormente citado. A aludida análise de risco e impacto deve ser considerada, a partir dos riscos aos direitos humanos, à democracia e ao rule of law, que determinado sistema de inteligência artificial poderá suscitar (ou estar suscitando).

Cada parte deverá articular em legislação ou em medidas administrativas correlatas, mecanismos para o estabelecimento de uma “moratória”, de banimento ou de outras intervenções que eventualmente possam ser necessárias quando determinados sistemas de inteligência artificial forem considerados em desconformidade com o respeito aos direitos humanos, ao funcionamento da democracia e ao rule of law (artigo 15.1.2.3).

Aliás, direciona-se a cada parte o dever de estabelecer apropriadas iniciavas que sejam vinculadas  a um processo de treinamento para o desenvolvimento de sistemas de inteligência artificial, no qual os atores sejam abalizados e preparados para aplicar as metodologias e diretrizes associadas à identificação dos riscos e possíveis impactos aos parâmetros normativos domésticos e internacionais aplicáveis na matéria (artigo 16) (Capítulo V – Assessment and Mitigation of Risks and Adverse Impacts).

Já no Capítulo VI: Implementation of the Convention, preocupa-se com a imperatividade de se aplicar a Convenção com o pressuposto de não discriminação, independentemente, a saber, de sexo, gênero, orientação sexual, identidade de gênero, raça, cor, língua, idade, religião, posicionamento político ou qualquer outro, origem nacional ou social, associação com minorias nacionais, propriedade, nascimento, estado de saúde, deficiência ou qualquer outro status, individual ou considerado em combinação com os anteriormente aludidos (artigo 17).

Individualiza-se, ainda, no artigo 18, uma ênfase obrigacional vinculada a cada parte, no sentido de constituírem medidas específicas às necessidades e vulnerabilidades das pessoas com deficiência e das crianças.

Mostra-se a necessidade de se fomentar o debate público e a consulta pública a respeito de elementos essenciais no desenvolvimento de sistemas de inteligência artificial, ressaltando-se as nuances e implicações sociais, econômicas, legais, éticas e ambientais (artigo 19).

No artigo 20 da proposta promove-se a necessidade de cada parte “encorajar e promover” literacia e habilidades digitais para todas os segments da população, e também para os responsáveis pelo design, development, use and decommissioning of artificial intelligence systems.

Outras nuances encontram-se no projeto, inclusive componentes atrelados a processos de cooperação entre as partes, em relações entre “nacionais”, e no ambiente internacional.

À vista das inúmeras iniciativas regulatórias nos ambientes nacionais, regionais e internacionais, estabelecidas, ou em processo de concepção, exsurge a proposta resumidamente observada como um ingrediente alvissareiro, capaz de propiciar novas observações sobre elementos essenciais no deslinde da matéria, inclusive na via de haver articulações relacionadas a prognoses atinentes a adequações futuras, e a eventuais movimentos legais, constitucionais e convencionais que, necessariamente, inaugurarão um “diálogo formal” entre cada qual, nas suas particularidades e contextos.

Lucas Reckziegel Weschenfelder é advogado, doutorando em Direito na Pontifícia Universidade Católica do Rio Grande do Sul (PUC-RS) e integrante do grupo de Estudos e Pesquisa em Direitos Fundamentais e do grupo de Estudos Proteção de Dados no Estado democrático de Direito, Inteligência Artificial e Direito.

Consultor Júridico

Facebook
Twitter
LinkedIn
plugins premium WordPress

Entraremos em Contato

Deixe seu seu assunto para explicar melhor