A ilusão da substituição
Por que a Inteligência Artificial jamais substituirá profissionais jurídicos qualificados

A crescente popularidade dos sistemas de inteligência artificial (IA) gerou uma onda de reflexões sobre sua capacidade de substituir profissionais de diversas áreas de atuação, dentre as quais podemos destacar, especialmente, os da área jurídica.
Advogados, juízes e promotores são frequentemente confrontados com a ideia de que algoritmos poderiam assumir suas funções com maior eficiência, menor custo e imparcialidade absoluta. Contudo, essa crença ignora aspectos fundamentais da prática jurídica: a subjetividade, a ética, a empatia e a capacidade de julgamento valorativo, elementos intrinsecamente humanos e impossíveis de serem replicados por máquinas.
A IA, por mais avançada que seja, opera com base em dados históricos e padrões estatísticos. Ela pode identificar jurisprudências semelhantes, redigir petições com base em modelos preexistentes ou até prever tendências de decisões judiciais. Porém, ela não possui capacidade de analisar as pessoas em seus aspectos subjetivos, emocionais e mesmo comportamentais, elementos essenciais para a compreensão do direito aplicável.
Os episódios de erros não são isolados, sendo verificados inúmeros casos em que sistemas de IA confundem fatos, distorcem doutrinas e até geram normas inexistentes, tudo com linguagem convincente para enganar leigos e, por vezes, até profissionais apressados.
Mais grave do que os erros factuais é a impossibilidade de a IA realizar análises valorativas e subjetivas. O Direito não é uma ciência exata (aliás, que me perdoem os colegas, sequer é ciência, conforme bem explicado pelo mestre Theodor Viehweg na obra Tópica e Jurisprudência).
Ele exige interpretação, sensibilidade ética, senso de justiça e capacidade de ponderar interesses conflitantes em contextos únicos. Um juiz, ao decidir sobre a guarda de uma criança, não aplica apenas a lei fria; leva em conta o ambiente familiar, as emoções envolvidas, a história de vida das partes e até intuições formadas por anos de experiência. Um advogado, ao fazer uma defesa, não repete fórmulas: adapta estratégias com base nas personalidades das pessoas, na postura do tribunal etc. Essas nuances exigem vivência humana, algo que nenhuma rede neural pode replicar.
O Direito não se materializa por meio de aplicação mecânica da lei. Ele exige equilíbrio entre princípios constitucionais em conflito, sensibilidade às particularidades humanas e discernimento ético, aspectos subjetivos que a IA, por não possuir consciência moral, não sentir empatia e não viver experiências, elementos essenciais para decisões que envolvem dignidade humana, equidade ou justiça material, não é capaz de analisar.
Além disso, quando um jurista erra, há mecanismos éticos e legais para responsabilizá-lo. Mas quem responde por erro de um algoritmo? A desenvolvedora? O programador? O próprio sistema? A ausência de responsabilidade subjetiva torna a IA inadequada para funções que exigem prestação de contas perante a sociedade.
Automatizar tarefas repetitivas é útil e já é realidade. Mas substituir o raciocínio jurídico, a argumentação persuasiva e a capacidade de adaptar a norma à realidade concreta é uma pretensão tecnológica que desconsidera a natureza profundamente humana do Direito.
Em síntese, a IA pode e deve ser usada como ferramenta auxiliar, mas nunca como substituta do jurista qualificado. A prática do Direito exige mais do que lógica: exige sabedoria, experiência de vida e sensibilidade. E essas qualidades, nenhuma máquina, por mais inteligente que pareça, é capaz de oferecer.
Marco Feitosa
Advogado e coordenador do Estado de São Paulo do Movimento Livres