Inteligência Artificial e o Direito - É possível? Até onde?


PorDan Daniel- Postado em 30 novembro 2011

 

SOBRE IA E DIREITO

 

            Partindo do princípio que os métodos de IA são amplamente usados em programação de sistemas para toda e qualquer área, apesar de em maior quantidade em sistemas operacionais, em sistemas de análise de dados numéricos, em sistemas de análise de comportamento, em sistemas de previsão, etc... Talvez a pergunta a ser feita, fosse algo como: "A Inteligência Artificial tem Futuro no Direito?".

            Bem, o Direito, como bem citou o texto "Inteligência Artificial e o Direito", esbarra em algumas dificuldades por vezes desestimulantes. Entre elas estão a falta de interesse do operador do Direito em se aprofundar no tema "programação" ou "engenharia" de software, passando pelo critério subjetivo que tem a área, o que pode tornar esta disciplina, talvez, na mais complexa que exista para os cálculos envolvendo IA, pois une a complexidade de interpretação da língua portuguesa, a dificuldade em padronizar os autos dos processos (talvez impossível) e a falta de apoio legal para que um computador tome decisões no lugar do ser humano (ao contrário do que diz o texto, não parece ter respaldo constitucional a substituição de um juiz por uma máquina). O Direito exige dedicação exclusiva e intensa. A programação de computadores também. Ambas áreas extremamente técnicas. Um bom programador leva 10 a 15 anos para se desenvolver completamente depois de formado. Um bom jurista também. Levaria um indivíduo então 45 anos de sua existência para atingir um nível considerável de conhecimento em ambas as áreas para iniciar um processo de interação absoluta entre ambas. Mas ainda: não é só isso.

            A expressão "Estado-Juiz-Digital" não parece agradar a maior parte da comunidade de juristas em todos os seus níveis. Também não parece agradar legisladores. Não há previsão legal de juízes "artificiais autônomos" nas Constituições nacionais. Inclusive, não parece ser apropriado, de acordo com alguns princípios jurídicos, como a subjetividade do Estado-Juiz na correta tomada de decisões, ou a "livre apreciação da prova", a "liberdade negocial", etc... São princípios que não estariam tão amparados por computadores no lugar de humanos.

            Como tomar a decisão correta, um computador, que nunca foi amamentado por uma mãe, ou não sabe os valores morais das paixões, amores... Sentimentos tão humanos?

            As redes neurais não tem capacidade para atingir níveis decisórios que fogem a padrões de pensamento comum (o chamado aleatório humano). Quantas amostras seriam necessárias para que uma rede neural pudesse sentenciar alguém por cada caso possível nos códigos penal e civil? Provavelmente mais do que seriamos capazes de alimentá-lo, porque o Direito não é maduro, é evolutivo. A lógica fuzzy se perderia completamente. Como adaptar a gramática "context free" a um mundo onde contexto é tudo? Imaginar um computador analisando uma testemunha em suas diferentes perspectivas, subjetivas e objetivas, físicas e psicológicas, é abusar do racionalismo lógico numa área social. É um devaneio desumano. Os graus de verdade usados nessa teoria aplicam-se bem à detectores de mentira, por exemplo, porém eles levam em conta fatores físico/químicos e o Direito muitas vezes não possui tais luxos. Não são poucas as oportunidades em que um juiz sentencia apenas lendo textos. Estamos diante de uma realidade ainda remota nessa seara.

            Resta a esta ciência computacional uma participação minoritária, ou melhor: coadjuvante.

            Que se tenha em mente não ser coadjuvante menos importante.

            A Inteligência Artificial tem futuro no Direito, porém ficará subutilizada.

            A razão vem das próprias definições de IA, que tangem a substituição do Homem nas decisões. O que parece ser improvável que aconteça em sua completude na área jurídica.

            Como declarar a suspeição do juiz se ele é um computador? Os advogados teriam que ser programadores, passar seus dias fazendo "debugging"  de códigos em busca de falhas que anulem os processos? Novamente, é nonsense. Seria moralmente absurdo passar a acreditar que a melhor escolha de mãe para uma criança seria a senhora X porque o computador a selecionou baseado em aspectos de IA, mesmo que analisassem todos os casos de adoção do mundo de todos os tempos. É matematicamente impossível prever como estará a família da adotada e ela até que complete sua maioridade. O livre-arbítrio do ser humano é posto em cheque quando um computador define seu destino. Porém devemos lembrar que foi o livre-arbítrio que gerou ramos diferentes da descendência da espécie, diferenciando homo-sapiens-sapiens de um australopitecus.

            Agora o outro lado.

            Se a decisão máxima no Direito resulta em sentenças e acórdãos, e não há previsão legal para isso ser feito por não-humanos, todas as outras tomadas de decisões, como por exemplo, despachos, atos de mero expediente e quem sabe decisões interlocutórias, seriam questionáveis, porém possíveis.

            A exceção maior talvez estivesse na polícia judiciária. A investigação criminológica ou probatória e o auxílio brilhante que pode dar a IA para a organização da grande quantidade de dados dos autos já é um grande passo.

            Aliás, isso já acontece. Vários dos softwares profissionais usados pelas polícias usam padrões de código de IA para tentar desvendar provas. Seja no uso da imagem, vídeo ou som, seja nas redes de computadores, seja na análise comportamental de uso de máquinas, seja na busca por quebra de hábitos. Sempre auxiliando, porém nunca tomando decisões.

            Um exemplo está na notícia abaixo, vinculada numa conceituada revista de computação americana e que mostra como e por que espiões chineses e russos roubam informações de grandes empresas americanas. Cita ainda como a contra-espionagem americana está lidando com esses casos, monitorando redes e suspeitos baseados em padrões comportamentais.