A Inteligência Artificial (IA) avança rapidamente sobre o sistema de justiça brasileiro, deixando de ser uma promessa futurista para se tornar uma realidade operacional nos tribunais.
Ferramentas como Victor (STF), Elis (TJPE) e Poti (TJRN) já auxiliam em tarefas que vão desde a classificação de processos à análise de dados jurídicos, otimizando a tramitação e prometendo maior celeridade. Essa é uma tendência global, em países como Estados Unidos, China e Canadá também implementaram soluções de IA em seus sistemas judiciais. Nos EUA, o uso de IA para auxiliar em decisões de sentença ocorre desde 2013, enquanto a China utiliza a tecnologia para análise de casos e o Canadá para a resolução de disputas.
Contudo, apesar dos benefícios, a crescente implementação da IA no direito traz consigo riscos significativos. Entre os principais desafios estão a possibilidade de os algoritmos reproduzirem preconceitos existentes na sociedade, gerando uma discriminação algorítmica; a falta de transparência, já que a complexidade dos sistemas pode dificultar a compreensão de como as decisões são tomadas; e a violação de privacidade pelo uso massivo de dados pessoais para alimentar os sistemas. Diante desse cenário, à medida que delegamos mais funções a esses sistemas, uma pergunta fundamental e complexa se impõe: se um algoritmo cometer um erro que cause dano a um cidadão, quem será o responsável?
Este questionamento está no centro de um dos maiores desafios jurídicos da atualidade. A natureza dos sistemas de IA rompe com a lógica tradicional da responsabilidade civil, que geralmente busca a conduta culposa de um agente humano. Estamos diante de desafios únicos para a atribuição de responsabilidade.
Os Desafios na Atribuição de Responsabilidade
A complexidade em determinar o responsável por um dano causado por IA decorre de vários fatores:
- Autonomia da IA: Muitos sistemas são projetados para aprender e tomar decisões de forma autônoma, o que pode dificultar a identificação de uma falha humana direta na sua operação.
- Complexidade Técnica: A chamada “caixa-preta” dos algoritmos, especialmente em modelos de aprendizado profundo, torna difícil, até mesmo para especialistas, rastrear o exato motivo de um erro. A falta de transparência sobre como certas decisões são tomadas compromete a accountability.
- Múltiplos Atores Envolvidos: A cadeia de desenvolvimento e uso de uma IA é longa e fragmentada. Ela envolve os programadores que escreveram o código, as empresas que forneceram os dados de treinamento, a entidade pública que implementou o sistema e o servidor ou juiz que o utilizou. Definir a parcela de culpa de cada um é uma tarefa complexa.
O Debate Legislativo: O Projeto de Lei 2338/2023
Diante dessa lacuna, o Congresso Nacional brasileiro avança na discussão de um marco regulatório para a IA, com o Projeto de Lei nº 2338, de 2023, como principal proposta. O projeto, de autoria do presidente do Senado, Rodrigo Pacheco, dedica atenção especial à responsabilidade civil, buscando criar um regime que proteja as vítimas e incentive o desenvolvimento seguro da tecnologia.
Os principais pontos do PL sobre o tema são:
- Responsabilidade Objetiva para Alto Risco: O projeto propõe a responsabilidade objetiva para sistemas classificados como de “alto risco”. Isso significa que fornecedores e operadores respondem pelos danos causados independentemente da comprovação de culpa, bastando a existência do dano e do nexo causal com a IA. Essa abordagem se baseia na Teoria do Risco, que postula que quem se beneficia de uma atividade deve arcar com os riscos dela decorrentes.
- Inversão do Ônus da Prova: Para os demais casos, o projeto prevê a presunção de culpa do agente causador do dano, invertendo o ônus da prova em favor da vítima. Caberá ao fornecedor ou operador do sistema provar que não agiu com culpa ou que o dano não ocorreu por falha da tecnologia. O juiz também poderá inverter o ônus da prova se a vítima for considerada hipossuficiente para produzir a prova ou quando o funcionamento do sistema tornar essa produção excessivamente onerosa.
- Reparação Integral do Dano: O PL estabelece que o causador do dano, seja ele patrimonial ou moral, tem a obrigação de repará-lo integralmente, independentemente do nível de autonomia do sistema de IA.
Atualmente, o PL 2338/2023, após aprovação no Senado, está em fase de análise em uma Comissão Especial na Câmara dos Deputados. A comissão está realizando audiências públicas para debater temas sensíveis, sendo a responsabilidade civil um dos pontos de maior atenção, buscando um equilíbrio entre a proteção ao consumidor e o fomento à inovação tecnológica.
A definição de um marco legal claro é crucial. Sem ele, o Judiciário, que hoje implementa a IA para solucionar processos, pode em breve se ver inundado por uma nova categoria de litígios: Aqueles que questionem as decisões e os erros da própria tecnologia que deveria ajudar a resolvê-los. O desafio é garantir que a IA seja uma ferramenta para a justiça, e não uma fonte de insegurança jurídica.
