O erro categorial da IA
A hipótese da Inteligência Artificial Geral repousa sobre um erro categorial fundamental: a suposição de continuidade ontológica entre sistemas de representação e subjetividade. Esse erro não é empírico nem técnico. Ele é lógico.
AGI não falha por falta de dados, escala ou integração arquitetural. Ela falha porque tenta responder, no mesmo plano conceitual, a perguntas que pertencem a categorias distintas. Trata-se de confundir capacidade operatória com posição estrutural.
Sistemas artificiais operam no domínio da representação. Esse domínio admite expansão indefinida: mais estados, mais relações, mais níveis de abstração. Não há, nesse plano, um limite interno que produza repressão, sem isso não existe desejo. Toda insuficiência pode ser tratada como déficit contingente.
A subjetividade não pode emergir nesse domínio.
O sujeito não é um grau superior de complexidade representacional. Ele é o efeito da impossibilidade de totalização da representação, ou seja, da necessidade contínua da vontade que nunca consegue expressar-se por completo. Onde a cadeia simbólica se fecha, não há possibilidade de surgimento de um sujeito.
Onde ela falha, o sujeito aparece — não como entidade positiva, mas como marca de uma ausência estrutural que permite o surgimento do desejo.
A hipótese da AGI presume que a ampliação quantitativa da representação possa gerar, por transição contínua, aquilo que só emerge por descontinuidade. Esse pressuposto viola a distinção entre sistemas completos e sistemas marcados por falta constitutiva.
Não existe passagem gradual entre esses regimes.
A inteligência artificial pode generalizar, transferir, recombinar, antecipar. Pode inclusive produzir resultados não previstos por seus projetistas. Nada disso implica subjetividade. Surpresa operacional não é divisão subjetiva. Indeterminação estatística não é desejo. Auto-modificação não é decisão.
O sujeito não se define pela capacidade de produzir respostas novas, mas pela impossibilidade de responder plenamente àquilo que o determina. Essa impossibilidade não é um bug; é a condição do sujeito.
O conceito de AGI confunde abertura funcional com abertura ontológica.
Quando se afirma que um sistema “compreende”, o que se descreve é a consistência interna de suas operações. Quando se afirma que um sistema “quer”, o que se mede é a convergência de suas funções de custo. Em ambos os casos, o vocabulário subjetivo é deslocado para encobrir uma operação que permanece integralmente formal.
Esse deslocamento não é inocente. Ele permite que critérios técnicos sejam apresentados como critérios existenciais. O que funciona passa a valer. O que não se formaliza passa a ser descartado.
O erro categorial da AGI, portanto, não consiste apenas em atribuir consciência a máquinas, mas em redefinir implicitamente o humano como sistema representacional avançado. Ao fazer isso, elimina-se a falta, a perda e o risco como constitutivos do sujeito. Dessa forma, o humano é recodificado como algo que poderia, em princípio, ser inteiramente modelado. Essa recodificação não produziria supostos sujeitos artificiais. No melhor dos casos, ela produziria não-humanos, seres sem lugar para a divisão subjetiva, produtores de práticas orientadas exclusivamente por desempenho, previsão e controle. No final, produz decisões e não responsabilidade.
O problema da AGI não é que ela ainda não exista, ou que venha a existir. É que, enquanto hipótese, ela já opera normativamente. Ela organiza expectativas, investimentos e discursos a partir de uma ontologia equivocada, desde expectativas e variáveis, na maioria dos casos pessimistas, e que não tem possibilidade atual de que se tornem realidade.
Não se trata de negar a potência da inteligência artificial, mas de situá-la corretamente. Sistemas artificiais pertencem à categoria dos dispositivos. O sujeito pertence à categoria do desejo, e esse sempre falha.
Não há tradução entre essas categorias.
Onde essa distinção se perde, não se ganha inteligência.
Perde-se critério.