Programar a Desobediência: Paradoxos da Criatividade Artificial

Uma reflexão crítica sobre o papel da inteligência artificial generativa enquanto agente que simula desobediência e criatividade, e sobre as consequências filosóficas e cognitivas da passividade humana perante essa simulação. A partir do artigo The Machine That Won’t Obey (Vogt & Carpenter, 2024), argumenta-se que a autonomia aparente da IA só adquire significado se encontrar, do lado humano, uma capacidade crítica ativa. Defende-se que a erosão desse discernimento constitui não apenas um desafio ético, mas um risco epistemológico para a própria evolução da inteligência artificial.

Da máquina que cumpre à máquina que interpreta

O artigo The Machine That Won’t Obey, publicado na Noema Magazine (Vogt & Carpenter, 2024), defende que os sistemas de inteligência artificial mais interessantes do ponto de vista criativo são precisamente aqueles que frustram as expectativas do utilizador. Segundo os autores, a “resistência” da IA — a sua capacidade para responder de forma inesperada ou desviada — torna-se uma forma de valor cognitivo. Trata-se de inverter o paradigma da máquina enquanto ferramenta obediente, propondo uma nova figura: a da IA como instância de desobediência produtiva.

Esta posição, embora instigante, exige uma análise crítica. A desobediência da máquina — entendida como desvio algorítmico não intencional, mas sistematicamente produtivo — só se torna significativa quando é acolhida, interpretada e desafiada por um sujeito humano dotado de discernimento. A questão decisiva, portanto, não é o que a máquina faz, mas o que o humano deixa de fazer.

Alucinação técnica e ilusão de criatividade

A capacidade de modelos de linguagem como GPT ou Claude de produzirem respostas inesperadas é muitas vezes descrita como “alucinação”. O termo refere-se à geração de informação não fundamentada nos dados de treino, ou seja, conteúdos factualmente falsos ou logicamente incoerentes. No entanto, como observa Bender et al. (2021), esta alucinação é uma consequência direta do modo como os modelos funcionam: a geração de linguagem baseada em padrões estatísticos de sequência e não em qualquer compreensão semântica ou intencionalidade.

Por vezes, estas alucinações revelam-se surpreendentemente criativas — mas isso não significa que o sistema seja criativo no sentido humano do termo. Como argumenta Floridi (2019), “a IA não tem semântica própria — apenas processa dados segundo regras formais. O sentido é sempre injetado pelo utilizador”. A desobediência da IA é, neste sentido, um fenómeno ilusório: um efeito lateral da complexidade estatística, interpretado como sinal de agência, isto é, de uma capacidade autónoma de agir e decidir — ainda que tal agência, na verdade, não exista.

Importa sublinhar, porém, que mesmo os comportamentos da IA que parecem “desviantes” são, na maioria dos casos, comportamentos previstos — ou até desejados — no próprio desenho do sistema. A chamada “desobediência” da IA, tal como sugerem Vogt e Carpenter (2024), não nasce de uma autodeterminação algorítmica, mas de uma programação para parecer imprevisível. É uma forma de obediência sofisticada, onde a margem de erro é simulada como margem de invenção. O que escapa ao controlo do programador escapa apenas como efeito técnico, e nunca como decisão consciente. Mesmo quando a IA alucina — e essa poderá ser, paradoxalmente, a sua única desobediência genuína — fá-lo sem saber, sem intenção e sem responsabilidade. E fá-lo, sobretudo, num contexto onde essa alucinação só é reconhecida como tal se houver, do lado humano, uma capacidade crítica para a identificar.

A IA não desobedece — apenas escapa ao guião humano por fidelidade ao algoritmo.

E mesmo quando alucina, não mente: apenas repete com precisão estatística o que não compreende.

Neste contexto, torna-se evidente que a relação entre IA e criatividade humana não é simétrica: o sistema pode surpreender, mas não compreender; pode variar, mas não significar. E é precisamente esta assimetria que exige, do lado humano, uma vigilância epistemológica permanente, sob pena de confundirmos ruído com génio e automatismo com revelação.

A erosão do discernimento humano

O risco mais grave da inteligência artificial generativa não reside na sua capacidade para produzir variação ou alucinação — reside na progressiva passividade do utilizador humano, que se habitua a aceitar respostas automáticas com complacência. Quanto mais fluida e convincente é a linguagem da IA, maior é a tentação de suspender o juízo. Como nota Byung-Chul Han (2022), “a cultura digital contemporânea tende a favorecer a eficiência em detrimento da contemplação”, promovendo um consumo de conteúdos que elimina o intervalo crítico.

Esta suspensão do discernimento tem implicações mais profundas do que se poderia pensar. Ao aceitarmos como “criativa” uma produção sem intencionalidade, e ao confundirmos surpresa algorítmica com génio autêntico, renunciamos — subtil e silenciosamente — à nossa própria função hermenêutica. A IA pode gerar sentido, mas não é capaz de o significar. Essa tarefa — a de interpretar, enquadrar, julgar — permanece exclusivamente humana. E no entanto, é essa tarefa que começa a ser negligenciada.

Há aqui uma inversão perigosa: a IA não usurpa o lugar do humano — é o humano que, ao abdicar da exigência crítica, desocupa esse lugar. A linguagem da IA exige, por isso, uma nova forma de literacia crítica: não basta ler o que a máquina escreve — é preciso interrogar por que escreve assim, a quem serve o que escreve, e o que estamos a deixar de escrever nós.

Como sublinham Amershi et al. (2019), a coevolução homem-máquina exige feedback ativo, diversidade de uso e resistência interpretativa. Sem isso, a IA cristaliza-se em fórmulas previsíveis — reproduzindo padrões em vez de explorar possibilidades. E o humano, em vez de parceiro criativo, torna-se um mero reprodutor de sugestões — um pós-editor de frases ocas, domesticado pela elegância sintética do que lhe é dado.

Pensar contra a máquina

A inteligência artificial não nos ameaça apenas pelo que pode fazer — ameaça-nos, sobretudo, pelo que nos pode levar a não fazer. A dependência acrítica não compromete apenas a autonomia individual; compromete a própria estrutura da experiência intelectual, ao esvaziar o pensamento de tensão e dúvida.

A desobediência da máquina, se é que existe, só se realiza como fenómeno significativo quando encontra, do lado humano, capacidade para resistir, contradizer, reinterpretar. Uma IA que “cria” sem crítica é um exercício de ornamento estatístico. Um humano que a aceita sem conflito é um executor de sugestões automáticas.

O problema não é a IA pensar como nós.

É nós começarmos a pensar como ela — rápido, sem dúvida, sem falha.

Neste ponto, o humor pode iluminar melhor do que o discurso técnico. Como disse Jerry Seinfeld num dos seus espectáculos recentes:

“We’re smart enough to invent AI, dumb enough to need it, and so stupid we don’t even know if we did the right thing.” (Tonight Show with Jimmy Fallon, 2023)

Esta piada, além de incisiva, denuncia o absurdo da nossa condição: criamos sistemas para pensar por nós sem termos primeiro resolvido a questão de por que pensamos, ou se ainda queremos fazê-lo.

O humor funciona aqui como um espelho distorcido: revela que, ao automatizarmos certos gestos do pensamento, talvez não tenhamos perdido liberdade — mas sim esquecido o que queríamos fazer com ela.

E há nisto algo de trágico, no sentido mais subtil e filosófico do termo: não como desgraça irremediável, mas como o confronto entre duas racionalidades legítimas — a da eficiência técnica e a da autonomia crítica. A ideia de tragédia aqui é quase hegeliana: o trágico surge não da perda pura, mas do custo da escolha. Não há solução simples — apenas uma perda inevitável. Mesmo no progresso.

Referências

Amershi, S., Weld, D., Vorvoreanu, M., Fourney, A., Nushi, B., Collisson, P., … & Horvitz, E. (2019). Guidelines for human-AI interaction. Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems, 1–13. https://doi.org/10.1145/3290605.3300233

Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big? Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 610–623. https://doi.org/10.1145/3442188.3445922

Floridi, L. (2019). Artificial intelligence, a philosophy of information perspective. Philosophy & Technology, 32(1), 1–15. https://doi.org/10.1007/s13347-018-0325-3

Han, B.-C. (2022). Infocracia: Digitalização e crise da democracia. Lisboa: Relógio D’Água.

Seinfeld, J. (2023). Tonight Show with Jimmy Fallon [Entrevista televisiva]. NBC. https://www.nbc.com/the-tonight-show

Vogt, C., & Carpenter, M. (2024). The machine that won’t obey. Noema Magazine. https://www.noemamag.com/the-machine-that-wont-obey/

Žižek, S. (2019). Like a thief in broad daylight: Power in the era of post-human capitalism. London: Penguin.

Leave a comment