Semana passada, em uma reunião de trabalho, ouvi algo que me fez parar.
Um colega comentava sobre um novo sistema de inteligência artificial que a equipe dele estava testando para análise de processos. Entusiasmado, ele descrevia a velocidade, a precisão, a quantidade de precedentes que o sistema conseguia mapear em segundos.
“É incrível”, ele dizia. “Alimentamos o sistema com os dados do caso e ele já sugere a tese, os precedentes principais, até um rascunho de petição.”
E então veio a frase que me fez pausar: “A gente só precisa revisar rapidinho e protocolar.”
Fiquei curioso: “E se você testar com outro sistema? Dá respostas diferentes?”
Ele pensou. “Sabe que nunca testei? Mas acho que não deve variar muito… todos usam os mesmos precedentes, né?”
Pois é. Exatamente isso.
A colmeia que ninguém planejou
Há um fenômeno estranho acontecendo no mundo da inteligência artificial. Pesquisadores descobriram algo curioso: quando você pede a sistemas diferentes — de empresas diferentes, com arquiteturas diferentes — para analisarem o mesmo problema, as respostas convergem. Não apenas no conteúdo. Também nas metáforas. Às vezes, até nas mesmas palavras.
Como se todos os algoritmos, sem combinar, tivessem chegado a um acordo silencioso.
Chamam isso de Artificial Hivemind. Mente coletiva artificial. Uma colmeia onde muitas inteligências aparentemente distintas funcionam, na prática, como uma só.
Não porque foram programadas assim. Mas porque foram treinadas com os mesmos padrões, alinhadas aos mesmos critérios de “qualidade”, alimentadas pela mesma média do que consideramos “boas respostas”.
O resultado? Eficiência, sim. Coerência, também. Mas algo se perde.
O precedente que todos veem (e o que ninguém enxerga)
No Direito, isso importa. Quando múltiplos sistemas — em escritórios diferentes, tribunais, defensorias — começam a sugerir os mesmos precedentes, as mesmas teses, os mesmos caminhos, algo se altera.
Não é conspiração. Não é combinação. É convergência algorítmica.
E essa convergência cria uma ilusão perigosa: a de que aquela é a resposta — não uma resposta possível entre várias.
Deixa eu te contar uma história.
Há alguns anos, mediamos um conflito de consumo envolvendo plano de saúde e negativa de cobertura para tratamento de doença rara. À primeira vista: caso “padrão” de negativa abusiva. Aqueles que qualquer IA mapearia em segundos.
Todos os algoritmos sugeririam os mesmos precedentes do STJ sobre cobertura obrigatória. Não estariam errados. Mas não estariam completos.
Porque quando paramos para escutar de verdade — quando abrimos espaço para a singularidade daquele conflito específico — percebemos que a questão central não era a negativa em si. Era a forma como essa negativa foi comunicada. O momento, o tom, a falta de orientação, a ausência de humanidade no trato com uma família em situação de extrema vulnerabilidade.
A solução que construímos não veio dos precedentes óbvios. Veio de enxergar o que estava sendo silenciado: a necessidade de um protocolo de comunicação digna para situações semelhantes. Uma transformação que iria muito além daquele caso específico.
Nenhum algoritmo teria sugerido isso. Porque a IA mapeia o que já foi decidido. O que já convergiu. O que já virou padrão. Não o que ainda pode ser construído. Não o singular que resiste. Não a voz minoritária que, historicamente, moveu o Direito para frente.
Quando a diversidade vira ilusão
O problema do Artificial Hivemind não é que a IA erra. É que ela acerta sempre da mesma forma.
Você consulta cinco sistemas diferentes. Cinco empresas. E sente aquele alívio: “Todos chegaram à mesma conclusão. Deve estar certo.”
Mas essa unanimidade não é sabedoria. É eco. É a média reproduzindo a média. É o passado se impondo como futuro. É a ilusão de pluralidade quando, na verdade, todas as vozes convergiram em uma só frequência.
E no Direito, isso se agrava. Especialmente quando lidamos com direitos coletivos. Com vulnerabilidades. Com casos que pedem mais do que aplicação mecânica de precedentes.
Porque a convergência estreita nosso horizonte justo quando precisamos expandi-lo.
A supervisão que não é só técnica
Então: supervisão humana. Não é conferir se o algoritmo citou o artigo certo. Não é verificar se a ementa está formatada. É resistir à sedução da unanimidade algorítmica. É manter viva aquela capacidade especificamente humana de:
Duvidar. Perguntar: “Será que todos pensam igual porque estão certos — ou porque foram treinados para convergir?”
Escutar o dissonante. Buscar ativamente o precedente minoritário, a decisão vencida, o argumento que ainda não virou padrão.
Desviar. Ter a coragem de não seguir a sugestão unânime quando o caso pede algo diferente.
Pausar. Criar um espaço entre a sugestão do algoritmo e sua decisão. Aquele espaço onde mora a liberdade.
Supervisão humana não é revisar rapidinho. É manter acesa a chama da dúvida — aquela que nos protege da fossilização do pensamento.
A IA como espelho, não como oráculo
Não estou propondo que abandonemos a tecnologia. A inteligência artificial pode ser aliada extraordinária. Desde que a vejamos como o que ela é: um espelho sofisticado do que já foi pensado, decidido, escrito.
Espelhos são úteis. Mostram padrões. Revelam o que já existe. Mas não revelam tudo. Não mostram o que ainda não foi visto. Não mostram a singularidade irredutível de cada conflito. Não mostram o caminho não trilhado.
E quando todos os espelhos refletem a mesma imagem — quando a Artificial Hivemind faz sistemas aparentemente diversos convergirem — precisamos de algo mais.
Precisamos da pausa. Daquela suspensão onde a compreensão acontece.
Precisamos sair do algoritmo. E escutar o que o caso tem a nos dizer.
É por isso que aprendemos a começar sempre pela escuta. Não pela resposta pronta. Não com a solução que todos os algoritmos já sugeriram. Não com o precedente que virou unanimidade.
Começamos perguntando: O que esse caso específico quer de mim?
E essa pergunta — simples, aberta, humilde — é o antídoto contra a sedução da hivemind que já sabe.
Porque quando você pergunta de verdade, você desliga o piloto automático coletivo. Você se obriga a estar presente. Você se recusa a terceirizar seu olhar para o consenso algorítmico.
A IA pode sugerir precedentes. Ótimo. Pode mostrar padrões. Valioso. Pode até indicar caminhos que você não tinha considerado. Mas quem decide se aquele precedente serve — se ele honra a singularidade daquele conflito, se ele constrói ou apenas reproduz — é você. Sempre você.
E isso não é opcional. É constitutivo da função de mediar, de julgar, de advogar.
Assinar sem pensar
Então voltamos àquela frase. “A gente só precisa revisar rapidinho e protocolar.”
E se naquele “revisar rapidinho” estivesse tudo? A diferença entre reproduzir o padrão e transformar o conflito?
E se, naquele momento de pressa, estivéssemos abrindo mão do único espaço onde algo genuinamente novo pode emergir — o espaço da dúvida consciente diante da unanimidade artificial?
Porque no fim, quando você assina uma petição, um parecer, uma sentença, você não está apenas validando um texto gerado ou sugerido por IA. Você está assumindo a autoria de um pensamento. De uma interpretação. De uma resposta ao conflito que alguém — uma pessoa real, com uma dor real — trouxe até você.
O algoritmo não pode assumir isso. A colmeia artificial não pode assumir isso. Só você pode.
A sabedoria começa na pausa
Há uma razão pela qual as tradições contemplativas, há milênios, insistem na pausa. Porque é no espaço entre o estímulo e a resposta que mora a liberdade.
A Artificial Hivemind elimina esse espaço. Oferece consenso antes mesmo que você tenha formulado direito a pergunta. Apresenta unanimidade quando talvez você precisasse justamente de diversidade.
E talvez seja aí que precisemos resistir. Não com nostalgia. Não com medo. Mas com a convicção de que há algo insubstituível:
A hesitação humana. A dúvida fecunda. O não-saber que se abre para compreender o único.
Três perguntas
Então ficam três perguntas:
Você está usando a IA para ampliar sua capacidade de pensar — ou para confirmar que “todos pensam assim mesmo”?
Quando cinco sistemas sugerem o mesmo caminho, você sente alívio — ou desconfiança?
E se a resposta certa para aquele caso específico fosse justamente a que nenhum algoritmo sugeriria?
Porque talvez o papel da supervisão humana não seja verificar se a máquina não errou. Mas garantir que, em meio à eficiência, ainda haja espaço:
Para o desvio necessário. Para o dissenso fecundo. Para a singularidade que resiste. Para aquela dúvida incômoda que diz: “Espera aí. Tem algo que todos estão deixando de ver.”
É ali, justo ali, que começa o trabalho que nenhuma hivemind — artificial ou não — pode fazer por você.
Porque quem dúvida, sabe. E quem pausa antes de seguir a unanimidade… enxerga.
Antonio Joaquim — Procurador de Justiça | Criador do Método UNMANI
Publicado originalmente no LinkedIn.


