Na semana seguinte àquela conversa sobre o sistema de IA, voltei a encontrar meu colega. Desta vez, ele parecia menos entusiasmado.
“Sabe aquela revisão rapidinha que a gente fazia?”, ele começou. “Pois é. Descobrimos que em três casos seguidos, todos aprovamos a mesma sugestão errada do sistema. Todos. Como se tivéssemos combinado.”
Não tinham combinado, claro. Mas todos tinham confiado. E essa confiança coletiva — quando vários humanos revisam sistemas diferentes que convergem para as mesmas respostas — cria uma ilusão especialmente perigosa: a de que a unanimidade algorítmica foi validada por múltiplos olhares humanos.
Mas se todos os olhares humanos estão apenas confirmando o eco da Artificial Hivemind, o que exatamente estamos supervisionando?
O problema não é a IA. É como estamos olhando para ela
Há uma pesquisa recente do Google DeepMind que ilumina exatamente esse dilema. Dierle Nunes, jurista que há anos se dedica ao tema da supervisão humana em sistemas de IA, analisou esse estudo e chegou a uma conclusão incômoda: a supervisão humana, do jeito que é normalmente praticada, não funciona.
Não porque os humanos sejam incompetentes. Mas porque fomos colocados no lugar errado, da forma errada, com as ferramentas erradas.
A pesquisa mostra algo contraintuitivo: em muitas tarefas de verificação factual, a IA já supera humanos. Quando pedimos que alguém revise tudo o que a IA produz, criamos um problema duplo. Primeiro: fadiga cognitiva. Ninguém consegue manter atenção crítica revisando centenas de respostas corretas. Segundo: viés de automação. Quanto mais o sistema acerta, mais confiamos nele — e menos percebemos quando erra.
O resultado? Uma falsa sensação de proteção. Humanos no circuito, mas cognitivamente desligados.
Quando confiar — e quando duvidar
Mas a pesquisa descobriu algo fascinante. Existe um momento específico em que os humanos são melhores que a IA: quando o próprio sistema se declara incerto.
Pense nisso. Quando a IA está confiante, ela geralmente está certa. Quando hesita, sua taxa de erro aumenta — e é justamente aí que o olhar humano faz diferença.
Os pesquisadores criaram então um arranjo que chamaram de “hibridição por confiança”: o sistema decide sozinho quando está seguro, e encaminha ao humano apenas os casos em que apresenta dúvida.
É uma inversão completa do modelo tradicional de supervisão. Em vez de “humano revisa tudo”, temos “humano intervém estrategicamente”. Em vez de vigilância universal, temos complementaridade calibrada.
E os resultados foram superiores tanto à IA sozinha quanto ao humano sozinho.
O risco escondido nas explicações sofisticadas
Mas há outro achado da pesquisa que dialoga diretamente com o Artificial Hivemind. Quando a IA não apenas sugere uma resposta, mas a acompanha de explicações elaboradas, citações estruturadas, fundamentações convincentes, algo perigoso acontece: o humano “desliga” seu julgamento crítico.
Quanto mais sofisticada a explicação, maior o risco de aceitação acrítica.
E aqui está o ponto: se múltiplos sistemas, afetados pelo Artificial Hivemind, convergem não apenas para as mesmas respostas, mas também para as mesmas explicações, o que temos?
Temos uma unanimidade duplamente sedutora. A IA não está apenas dizendo “este é o precedente”. Está dizendo “este é o precedente, por essas razões, baseado nessas fontes, com essa estrutura argumentativa” — e cinco sistemas diferentes dizem quase a mesma coisa, quase do mesmo jeito.
Como resistir a isso?
A assistência que preserva o pensamento
Curiosamente, o formato de assistência que melhor funcionou na pesquisa foi o menos intuitivo. A IA não ofereceu conclusões prontas. Não apresentou teses estruturadas. Não entregou fundamentações elaboradas.
Ofereceu apenas evidências brutas: trechos de textos, fragmentos verificáveis, dados primários. E forçou o humano a fazer o que só humanos conseguem fazer bem: comparar, contextualizar, avaliar, decidir.
Esse formato — mais modesto, menos diretivo — foi o que produziu o maior ganho de desempenho humano. Porque preservou o engajamento cognitivo. Porque manteve o humano no papel de pensador, não de revisor.
O humano estratégico
Então voltamos àquele escritório, àquela frase. “A gente só precisa revisar rapidinho e protocolar.”
Agora sabemos que não. Que revisar não é passar os olhos. Que supervisionar não é validar. Que estar “no circuito” não garante controle se o circuito foi mal desenhado.
E sabemos também que a solução não é revisar tudo, o tempo todo, exaustivamente. A solução é ser estratégico. Intervir nos momentos certos. Com as perguntas certas. Mantendo viva a capacidade de duvidar — especialmente quando todos os algoritmos concordam.
Porque talvez, justo nessa unanimidade confortável, esteja escondido o caso atípico que nenhum sistema foi treinado para ver. Aquele caso que pede o desvio necessário. O dissenso fecundo. A singularidade que resiste.
E que só um olhar humano — pausado, crítico, consciente — consegue enxergar.
Três novas perguntas
Então ficam mais três perguntas:
Como você está desenhando sua supervisão da IA — como protocolo estratégico ou como formalidade burocrática?
Quando foi a última vez que você discordou de uma sugestão unânime de múltiplos sistemas — e investigou por quê?
Sua arquitetura de trabalho preserva espaço para a dúvida — ou apenas para a confirmação?
Porque no fundo, supervisionar IA não é sobre controlar máquinas. É sobre preservar aquilo que nos torna insubstituíveis:
A capacidade de pausar. De contextualizar o único. De escutar o que ainda não foi dito. De duvidar quando todos convergem.
E de, no espaço estreito entre o algoritmo e a assinatura, manter vivo o pensamento.
Porque quem duvida, sabe. Quem pausa, enxerga. E quem desenha a supervisão com método… transforma.
Antonio Joaquim — Procurador de Justiça | Criador do Método UNMANI
Publicado originalmente no LinkedIn.


