O avanço da IA, que já reconfigura o trabalho jurídico e os modos de aprender, coloca uma série de desafios para as faculdades de Direito. Há reações que vão do negacionismo (“IA é apenas mais uma ferramenta, como a calculadora”), ao entusiasmo (“todo o ensino deve ser completamente reformulado para integrar a IA”) e ao alarmismo (“a graduação em Direito perderá seu sentido”). Eu talvez não seja o único a frequentemente transitar entre essas três reações várias vezes ao longo de um mesmo dia.
Essa angústia é compreensível porque podemos apenas especular sobre o real impacto de uma tecnologia cuja aplicação é ainda incipiente, mas que se desenvolve de forma exponencial. Porém, há coisas que já sabemos sobre o ensino jurídico e que podem servir de referência para reorganizá-lo diante das mudanças na tecnologia e nas profissões.
Quatro objetivos devem ser buscados para a boa formação em Direito. Primeiro, a socialização na comunidade jurídica, incorporando seus repertórios simbólicos, práticas argumentativas e valores. Segundo, a aquisição de conhecimento sobre normas, doutrinas, jurisprudência e instituições. Terceiro, o desenvolvimento do raciocínio aplicado, que envolve ligar o conhecimento a fatos concretos para solucionar problemas. Quarto, a reflexão crítica sobre se o Direito posto promove valores como coerência, dignidade, eficiência e justiça.
Programas de ensino podem ter mais objetivos, mas não menos. Esses objetivos não mudam com a IA. Ao contrário, precisam ser aprofundados e a IA pode ser aliada se houver clareza sobre o propósito pedagógico e o tipo de pessoa que se quer formar.
É subestimar a IA tratá-la apenas como mais uma ferramenta. Um software estatístico é inútil sem conhecimento sólido de Estatística. Porém, alguém com um vago conhecimento consegue pedir para a IA sugerir testes, fazer análises e interpretar resultados. Um leigo que não saberia por onde começar a resolver seu problema jurídico conseguirá redigir uma petição mediana com auxílio da IA. IA reduz o custo de entrada em qualquer área do conhecimento. Isso torna o conhecimento superficial e a erudição performativa típicas da formação bacharelesca cada vez menos impressionantes.
Contudo, isso não muda o fato de que quanto mais conhecimento prévio alguém tem, maior sua capacidade de extrair resultados da tecnologia por conseguir (i) formular perguntas e criar prompts com o nível necessário de detalhamento e direcionamento, (ii) identificar respostas equivocadas, pouco persuasivas ou simplistas, (iii) entender que a resposta gerada é uma dentre várias possibilidades e (iv) aplicar a informação para tomada de decisão considerando as circunstâncias concretas. O saber contextualizado, aprofundado e crítico, mesmo com apoio de IA, ainda exige tempo, foco e esforço para aquisição.
Quando o acesso à informação existente é fácil, uma habilidade importante é saber onde estão as lacunas no conhecimento e como produzir mais informação. Nesse ponto, a IA, se bem empregada, é uma grande aliada por permitir pesquisas em escala, velocidade e custo antes inimagináveis. Uma grande pesquisa de jurisprudência ou de Direito comparado no passado levaria meses e uma grande equipe para buscar, ler e codificar documentos. Hoje, pode ser feita em horas.
IA pode automatizar tarefas previsíveis, repetitivas e que seguem um modelo ou roteiro pré-determinado em que o resultado desejado é claro. Porém, há problemas que, como afirmou o prêmio Nobel de Economia Daron Acemoglu, são mais difíceis para a IA resolver bem.
Há eventos raros ou que não se repetem de acordo com um padrão, o que não gera dados suficientes para treinar a IA. Existem também problemas em que não é clara a solução ideal ou a ação que leva a essa solução. Tais problemas exigem raciocínios cognitivamente complexos e que envolvem interação social. Seres humanos ainda parecem ser melhores para essas tarefas, mas exigem habilidades que precisam ser treinadas e estimuladas: pensamento estratégico, identificação de trade-offs, análise prospectivo e retrospectivo de impacto, interpretação de situações ambíguas, flexibilidade para reagir a mudanças, elaboração de argumentos persuasivos a públicos e contextos distintos, e reflexão ética.
Por exemplo, juristas podem usar a IA para entender de forma detalhada o que é assistolia fetal. Porém, a questão de se o STF deveria suspender a proibição do Conselho Federal de Medicina à realização de procedimento que leve à assistolia fetal possui tantas camadas jurídicas, éticas e políticas (e com tantas complexidades dentro de cada camada) que dificilmente um leigo usando IA produzirá uma contribuição relevante e original para o debate.
Quando tarefas que seguem certos padrões podem ser automatizadas com rapidez, escala e precisão sobre-humanas, o diferencial está na aptidão para integrar, avaliar, mobilizar e produzir mais conhecimento para resolver problemas usando raciocínios cognitivamente complexos e respondendo a contextos únicos e públicos específicos. Essas são habilidades centrais não só para usar resolver problemas com IA, mas também para analisar o que a IA produz.
Para entregar esse diferencial, as faculdades de Direito vão precisar mudar, mas não é preciso uma transformação radical. Uma solução envolve recursos que as instituições de ensino com ênfase em pesquisa já possuem: aproximar a graduação da pós-graduação stricto sensu.
Bons programas de pós são concebidos para permitir que estudantes compreendam o estado da arte de um campo — o que se sabe, o que permanece controverso e quais são as lacunas — e empurrem a fronteira do conhecimento. Para isso, desenvolvem a capacidade de abstração, de formulação de hipótese, de pensar metodologicamente, e de coletar, analisar e interpretar dados.
Outro elemento distintivo da boa pós-graduação é a exposição contínua de ideias à crítica, que é um mecanismo de inovação e autocorreção. O ethos da ciência pode contribuir para os valores e práticas dentro dos quais alunos de Direito são socializados. Embora a racionalidade científica e a racionalidade jurídica tenham finalidades distintas, ambas operam por meio de arranjos institucionais que regulam a resolução de desacordos, exigem justificativas públicas e valorizam consistência argumentativa.
Essa aproximação pode ocorrer por meio, por exemplo, de exercícios de leitura crítica e profunda; projetos empíricos ou analíticos de maior fôlego para treinar habilidades de delimitação de problemas, formulação de hipóteses e construção de evidências; e espaços de debates e discussão dos trabalhos.
Aproximando-se da pós, a graduação se torna um espaço de experimentação intelectual, produção colaborativa de conhecimento e reflexão crítica onde se adquirem saberes e habilidades de se trabalhar com o conhecimento que são transferíveis para qualquer contexto profissional.
Haverá escolhas difíceis (por exemplo, o que deve sair dos programas de graduação ou receber menos atenção) e desafios (por exemplo, a maturidade do corpo discente e a preparação do corpo docente). Porém, essa pode ser uma resposta das instituições de ensino à nova realidade na qual muitas tarefas dos “operadores” podem ser automatizadas, mas a capacidade de criar, analisar e interpretar conhecimento em um dado contexto para tomar decisões e resolver problemas complexos ainda é um diferencial.
Post-scriptum
Esse texto foi escrito com apoio de IA. Era uma oportunidade de entender melhor esse instrumento ao mesmo tempo em que eu escrevia sobre ele. Foi minha primeira tentativa de colocar a IA no centro da produção de um texto de opinião, ao invés de usá-la apenas de forma pontual para melhorar a redação, traduzir trechos, procurar definições ou familiarizar-me com alguns assuntos.
Em resumo, dei ao ChatGPT (versão gratuita) uma página de Word com meu argumento e as premissas que o sustentam, e pedi à IA que produzisse um texto opinativo. Fiz alguns testes pedindo que a IA imprimisse um tom que refletisse minha insegurança em relação a muitas das ideias que eu propunha. Contudo, não consegui chegar a um prompt que me satisfizesse quanto ao tom.
Revisei manualmente o texto produzido pelo ChatGPT. A revisão manual foi muito ampla em praticamente todos os parágrafos porque o texto que ele produziu era muito diferente do que eu gostaria de escrever, seja no conteúdo, no tom ou na expressão.
Enviei a versão revisada ao ChatGPT e pedi que a analisasse criticamente, apontando onde o argumento era mais ou menos forte e original; depois, pedi que fizesse uma “crítica mais dura”. Com base nessas críticas e em leituras sucessivas, revisei manualmente o texto novamente. Em seguida, pedi ao ChatGPT que reescrevesse uma “versão mais acadêmica” do texto, que também foi revisada manualmente.
O resultado foi enviado a colegas que, após a leitura, foram informados de que se tratava de um texto escrito com grande contribuição de IA. Curiosamente, a avaliação do texto tornou-se mais crítica após saberem como ele havia sido produzido. Ouvi frases como “esse texto está abaixo da média do que você escreve” e “a IA de fato tende a reproduzir o senso comum”.
Uma explicação para isso é que a opinião sobre o texto mudou, o que reflete a tendência de apreciarmos menos um trabalho quando sabemos que ele não foi uma produção artesanal. Eu também levava mais a sério um mesmo comentário quando vindo de um colega do que quando vindo do ChatGPT. Outra explicação é que, talvez, meus colegas já tinham reservas em relação ao texto e se sentiram mais confortáveis para expressá-las sabendo que eu era menos autor dele.
Eu, de fato, tinha dúvidas quanto à minha autoria. Embora eu tivesse fornecido ao ChatGPT o argumento a ser desenvolvido e tivesse feito uma série de escolhas e mudanças ao longo do caminho, havia ideias, palavras e construções que não vieram de mim. Eu também me sentia menos dono do texto porque o conhecia menos. O processo de escrita normalmente envolve um esforço de reflexão, tentativa e erro, autocrítica e pesquisa que, nesse caso, eu não tive. Escrever sobre um tema é aprender sobre ele, mas com o ChatGPT me ajudando aprendi menos.
De qualquer maneira, continuei na experiência e inseri no ChatGPT as críticas e sugestões (inclusive bibliográficas) feitas por meus colegas para melhorar o texto. Algumas das melhorias propostas pela IA foram incorporadas. Reli o texto mais algumas vezes e continuei insatisfeito. Percebi que havia formulações que pareciam sofisticadas, mas eram vazias de sentido e que, de fato, tendiam ao senso comum.
Decidi, então, procurar literatura acadêmica sobre o assunto, bem como palestras, entrevistas e debates sobre o impacto da IA no mercado de trabalho e no ensino. Com base nisso, fiz uma revisão mais ampla, questionando cada palavra, linha e parágrafo do texto. Depois, pedi ao ChatGPT que fizesse uma análise crítica dessa última versão, mas não houve comentários que eu considerasse relevantes. Progressivamente, comecei a me sentir mais autor do texto, seja porque passei a ter maior familiaridade com o assunto, seja porque me via mais refletido nele. Também passei a ter mais prazer em escrever.
Toda essa jornada me levou a pensar se não perdi tempo usando IA dessa forma. O tempo gasto para explicar exatamente o que eu queria e revisar o texto para deixá-lo com o tom, a expressão e as ideias desejadas talvez não fossem muito diferente — e possivelmente maior — do que o necessário para o escrever desde o início. Parece contraproducente delegar ao ChatGPT a escrita de textos com alguma pretensão de originalidade e nos quais se deseja projetar a própria subjetividade, trajetória, incômodos e ideais.
Em conclusão, dar protagonismo à IA para a produção de alguns gêneros de texto pode não levar a melhores resultados ou ganhos de eficiência. E mesmo quando gera resultados e eficiência, é preciso sopesar esses ganhos com o que se perdeu por ter escolhido um caminho com menos desafios e dificuldades.
