“O Senhor Cheira Bem” — Genealogia de um texto sobre IA, autoria e memória

“Fui à bomba de gasolina e quando estou a pagar diz a jovem na caixa:
‘O senhor cheira bem’.
Não consegues ter esta interação com o ChatGPT.”
— Ricardo Araújo Pereira (Expresso)

Quando se ouve alguém como Ricardo Araújo Pereira afirmar, com ironia certeira, que “não se consegue ter esta interação com o ChatGPT”, a frase ecoa de forma imediata e intuitiva: a experiência humana, física, sensorial e imprevisível parece ser um território protegido, impermeável à ação de uma máquina. É uma afirmação sedutora, porque nos tranquiliza. No entanto, a sedução é também um risco: ela embala-nos numa falsa clareza e ajuda a alimentar a mistificação em torno da inteligência artificial, tanto no sentido da sua omnipotência futura como na sua suposta impotência presente.

O que falta nesse raciocínio é a consciência de que tudo o que as IAs atuais produzem é consequência de redes humanas de decisão, intenção e interpretação. Não há aqui um sujeito autónomo a agir. Quando um utilizador escreve uma pergunta, quando um programador define um parâmetro, quando uma equipa decide que dados entram no treino, a máquina apenas executa, recombina e devolve resultados que voltarão a ser lidos e vividos por humanos. Até mesmo os sistemas de criação e disseminação automática de notícias falsas, que operam sem intervenção manual direta, existem porque alguém os concebeu para tal, com objetivos específicos. A “autonomia” aqui é puramente instrumental, uma delegação de tarefas, não uma vontade.

Esta distinção parece óbvia, mas a nossa cultura contemporânea tem uma capacidade quase instintiva para se esquecer da genealogia dos seus próprios artefactos. A pior coisa que o humano pode fazer é ignorar os seus próprios feitos, sejam eles admiráveis ou perigosos. Porque ao esquecermos a autoria humana das máquinas, cedemos à tentação de as tratar como “outras” entidades, ou como demónios inevitáveis, ou como oráculos neutros. Perdemos a possibilidade de nos responsabilizarmos pela sua existência e pelo modo como as usamos.

Há aqui uma ironia: o mesmo público que consome diariamente conteúdos escritos por humanos ausentes, crónicas, romances, guiões de comédia, postes em redes sociais, podcasts, sem qualquer contacto físico com os seus autores, tende a aceitar sem questionamento a ideia de que a experiência mediada por IA é, por definição, qualitativamente inferior à experiência mediada por humanos. Ora, a mediação textual é sempre, já de si, uma amputação do corpo. Mesmo quando um escritor escreve para provocar uma gargalhada, um arrepio ou um choro, confia que as palavras, em estado “desencarnado”, terão efeito.

Se queremos compreender até onde podemos ir com a inteligência artificial, o primeiro passo é reconhecer que ela não caiu do céu, nem brotou do nada. É uma extensão da capacidade humana de projetar, estruturar e delegar pensamento. A ignorância, neste campo, não é apenas falta de informaçã, é um posicionamento perigoso, porque transfere para a máquina a responsabilidade por processos que pertencem, integralmente, a nós.

Criticar a IA é necessário; ridicularizá-la também pode ser saudável, como antídoto contra a retórica triunfalista de Silicon Valley. Mas essa crítica só ganha força se for feita com lucidez sobre o seu lugar real na cadeia de produção cultural e política. De outro modo, o humor transforma-se num véu que cobre a questão central: não é a máquina que decide o que dizer ou fazer; somos nós que decidimos, ainda que, por vezes, decidamos mal.

O desafio, portanto, não está apenas em medir “o que a IA consegue ou não consegue fazer”, mas em perguntar “o que queremos que ela faça” e “com que grau de delegação estamos confortáveis”. A história humana está cheia de ferramentas que ampliaram o alcance da nossa ação, da escrita ao motor a vapor, da imprensa ao cinema, e todas elas vieram acompanhadas de entusiasmos, resistências e usos perversos. A diferença é que, no caso da IA, a velocidade e a opacidade dos processos tornam o esquecimento da autoria humana muito mais fácil.

Se deixarmos que esse esquecimento se instale, abrimos caminho para duas armadilhas complementares: a do fatalismo (“a IA vai tomar conta de tudo”) e a da inocência (“a IA é só uma ferramenta, não tem importância política”). Nenhuma das duas posições serve para orientar decisões éticas e políticas sólidas. O que precisamos é de manter presente que estas tecnologias são produtos de intenções humanas e que, enquanto tal, podemos criticá-las, reformulá-las, restringi-las ou até desmantelá-las. Mas para isso temos de as compreender, não como um “outro” absoluto, mas como o espelho, distorcido e amplificado, da nossa própria ação.

Ignorar este espelho, seja para o venerar, seja para o diabolizar, é cegar-nos perante a responsabilidade que temos. É abdicar do direito de decidir até onde queremos ir. E, como sempre que abdicamos, alguém decidirá por nós.

A questão da autoria e da responsabilidade torna-se ainda mais interessante quando a colocamos no campo editorial. A proposta de publishing futures, enquanto prática crítica, especulativa e de design de transições, oferece precisamente uma plataforma para tentar lidar com este problema sem cair nas armadilhas da ingenuidade ou do pânico tecnológico.

No fundo, editar não é apenas reunir conteúdos e colocá-los num suporte; é também inscrever no tempo e no espaço uma relação específica entre quem produz, quem distribui e quem recebe. No caso da inteligência artificial, assumir esta lógica editorial significa reconhecer que cada texto gerado, cada imagem criada, é o resultado de uma rede complexa de ações humanas: do programador que escreveu a arquitetura do modelo, ao curador dos dados de treino, ao utilizador que formulou o pedido, até ao leitor ou espectador que atribui sentido à obra final.

Se pensarmos em publishing futures como um campo de ensaio, então a IA torna-se matéria-prima para investigar não só o conteúdo, mas a própria cadeia de mediação. É possível imaginar publicações que revelem, de forma explícita, a genealogia de cada texto gerado: os prompts utilizados, as fontes de treino relevantes, as escolhas e omissões conscientes do editor humano que o enquadra. Não para “expor” a máquina, mas para reinscrever a sua produção no território da responsabilidade partilhada.

Este gesto tem implicações políticas. Quando um leitor recebe um texto de uma revista, de um jornal ou de um livro, raramente é convidado a conhecer o processo material e relacional que o gerou. Com a IA, essa opacidade aumenta: a escala e a complexidade do processamento criam uma distância ainda maior entre a origem e o resultado. Ao trazer para o campo editorial a prática de explicitar essa distância, de a cartografar, abrimos espaço para um novo tipo de literacia crítica.

Aqui, o papel do editor aproxima-se do de um antropólogo que, como Bruno Latour em We Have Never Been Modern, se recusa a separar os factos técnicos dos factos sociais. Um texto gerado por IA não é “apenas” tecnologia, tal como um livro impresso no século XV não era “apenas” papel e tinta. É um híbrido de forças, interesses, intenções e acidentes e, como tal, só pode ser compreendido se olharmos para ele como produto de uma rede.

No cenário de publishing futures, essa rede não precisa de ser dissimulada nem estetizada como fetiche de “inteligência” artificial. Pode ser apresentada como parte integrante da obra. Um livro pode conter, no seu próprio corpo, as instruções que levaram ao seu fabrico. Uma exposição pode mostrar não só o conteúdo gerado, mas também as interações humanas que o tornaram possível. Uma revista pode incluir, ao lado de um texto, a árvore genealógica de decisões e inputs que o moldaram.

Este tipo de prática editorial pode impedir que a IA seja naturalizada como “entidade autónoma” ou demonizada como “ameaça incontrolável”. Reinscreve-a no campo humano, onde a crítica, a ética e a imaginação têm agência. E, talvez mais importante, convida-nos a encarar a tecnologia não como um destino inevitável, mas como um campo de experimentação partilhada.

Se a pior coisa que podemos fazer é ignorar os nossos próprios feitos, então o publishing futures pode ser entendido como a arte de manter a memória ativa desses feitos, mesmo, e sobretudo, quando eles se apresentam sob a forma de máquinas que parecem falar sozinhas.

Imaginemos um projeto experimental chamado “Genealogia de um Texto”. Cada publicação conteria duas camadas indissociáveis: o conteúdo final (texto, imagem, áudio) e o registo explícito do seu processo de produção. No caso de um texto gerado por IA, essa genealogia poderia incluir: o prompt original, tal como foi escrito pelo utilizador; Uma breve nota de contexto: o que motivou esse pedido, que circunstâncias humanas estão na sua origem; Uma descrição sumária do modelo utilizado, incluindo data de treino e eventuais limitações conhecidas; Alterações editoriais feitas após a geração automática; Uma reflexão final do editor sobre o impacto esperado do texto e sobre o que ficou de fora.

Outro exemplo: “Atlas de Interações”, uma publicação que recolhe interações entre humanos e IA num formato diarístico. Cada página documentaria não só o output gerado, mas também as trocas verbais, as hesitações, as reformulações e até as reações físicas ou emocionais que ocorreram durante o processo. Seria uma espécie de etnografia editorial, onde o humano e a máquina são coparticipantes de uma narrativa aberta.

Em contexto expositivo, esta lógica poderia ganhar corpo na forma de instalações-editoriais. Imaginem um espaço onde o visitante lê um poema impresso, mas ao lado vê projetado o histórico de conversas que levou àquele resultado, com comentários marginais de quem interveio no processo. Ou uma parede com diagramas que mostram como certos termos e estilos foram escolhidos ou descartados. Isto não seria para “desmistificar” a IA no sentido de lhe retirar magia, mas para deslocar a magia do mito da autonomia para a realidade da colaboração, ainda que essa colaboração seja assimétrica e mediada.

Este tipo de prática editorial cumpre duas funções: a primeira é a de recuperar a autoria humana como presença estruturante, mesmo quando o produto parece “vindo da máquina”. A segunda é a de oferecer ao público ferramentas críticas para compreender que todo objeto gerado por IA é um híbrido cultural, social e técnico, e que a sua leitura exige consciência desse hibridismo.

No fundo, trata-se de reverter o processo de naturalização que acompanha qualquer tecnologia quando passa a ser invisível. A IA, tal como a eletricidade ou a impressão tipográfica, tende a tornar-se “transparente” na sua operação. Um publishing futures crítico pode contrariar essa tendência, mantendo visível a costura entre humano e máquina.

design de transições, não se limita a conceber objetos ou sistemas; é um campo que opera sobre ecossistemas de práticas, imaginários e infraestruturas. Nesse sentido, a relação com a inteligência artificial não pode ser tratada como mera questão de eficiência ou de estilo. Ela é, antes de tudo, uma questão de memória ativa e de agência coletiva.

Cada tecnologia transporta consigo a marca do seu tempo: as expectativas, as tensões, os vícios e as aspirações de quem a cria. Ao ignorarmos essa marca, não só abdicamos da possibilidade de crítica, como também comprometemos a capacidade de reconfigurar o seu rumo. É aqui que a proposta de publishing futures se cruza com o desafio da IA: criar práticas que mantenham à vista a teia de relações humanas que dá origem aos conteúdos, em vez de os apresentar como produtos herméticos e autojustificados.

O gesto editorial, nesse quadro, torna-se um gesto político. Ao mostrar a genealogia de um texto, ao dar visibilidade às decisões e condições que o moldaram, devolvemos ao público uma forma de soberania interpretativa. Não se trata de “explicar” a máquina como quem desmonta um truque, mas de reinscrever o objeto gerado num contexto que permita ao leitor assumir uma posição crítica.

Esta prática desloca-nos de um imaginário tecnológico centrado no fascínio pela autonomia das máquinas para outro, mais exigente, que reconhece o papel estruturante da colaboração, mesmo que essa colaboração seja indireta, mediada e desigual. No design de transições, essa consciência é essencial: cada decisão editorial pode funcionar como protótipo de uma relação futura entre humano e máquina, entre autor e leitor, entre ferramenta e comunidade.

Assim, a IA pode deixar de ser pensada como ameaça ou milagre, para ser vista como mais um episódio na longa história das mediações humanas. E, tal como aconteceu com a escrita, a imprensa ou a fotografia, o modo como a integramos dependerá menos da sua “natureza” e mais das escolhas que fizermos em seu torno. Escolhas que, para serem responsáveis, exigem que se recuse a ignorância como método e se adote a cartografia como prática: mapear de onde vem cada gesto, cada frase, cada imagem, para decidir com clareza para onde queremos que vá.

Manter a memória ativa dos nossos próprios artefactos é mais do que um exercício histórico; é uma forma de assegurar que o futuro não se constrói à custa do apagamento das nossas intenções. No publishing futures, isso traduz-se em publicações que funcionam não apenas como objetos de leitura, mas como dispositivos de revelação, onde a experiência estética e a consciência crítica se encontram.

O elogio espontâneo de uma funcionária numa bomba de gasolina pode, de facto, estar fora do alcance de um modelo de IA. Mas a capacidade de criar e mediar discursos que provoquem atenção, reflexão e até afeto, mesmo sem corpo presente, não é exclusividade humana. É um território partilhado, que exige de nós lucidez para não confundir a autoria com a interface, nem o mito com a prática. E sobretudo, para não esquecer que, enquanto forem os humanos a programar, editar e interpretar, a IA continuará a ser um espelho, e não um oráculo.

Apêndice: Genealogia deste Texto

Reflexão final
– O texto é resultado de uma colaboração prolongada e deliberada entre humano e máquina, onde o utilizador mantém controlo autoral, conceptual e editorial.
– A genealogia aqui descrita serve não apenas para registar a origem do texto, mas também para revelar o processo como parte integrante da obra — em coerência com a própria tese defendida ao longo do ensaio: a importância de reinscrever a autoria humana em tudo o que é mediado por IA.

Pedido inicial
– O ponto de partida foi a frase de Ricardo Araújo Pereira, usada como mote para desmontar uma ideia popular sobre a suposta incapacidade da IA de criar experiências comparáveis às humanas.
– O utilizador introduziu desde logo a tese central: “A pior coisa que o humano pode fazer é ignorar os seus próprios feitos”.

Contexto humano e histórico
– Este texto inscreve-se num percurso de vários meses de trabalho contínuo em que o utilizador tem vindo a carregar informação bibliográfica, a partilhar referências, a explorar conceitos e a desenvolver ideias ligadas a publishing futuresdesign de transições e à crítica cultural e tecnológica.
– Ao longo deste período, o utilizador recorre à versão paga do ChatGPT (GPT-5), garantindo maior continuidade, capacidade de contexto e acesso a recursos mais extensos.
– O diálogo não é unilateral: há interpelações frequentes, críticas, correções e reformulações solicitadas pelo utilizador, que orientam o tom, a estrutura e a densidade do texto.
– O trabalho não se resume a respostas automáticas: envolve hesitação, dúvida, tentativa e erro, com sucessivas revisões e aprofundamentos, raramente ficando pela primeira escrita.

Modelo e condições de produção
– GPT-5 da OpenAI, configurado para escrever em português de Portugal, com tom afirmativo, rigor formal, integração orgânica de referências e ausência de construções negativas.
– A interação decorreu em modo iterativo, com o utilizador a pedir expansões, ajustes de ordem conceptual, e integrações de excertos pré-existentes no seu arquivo pessoal.

Processo
– Estrutura em camadas:

  1. Crítica da piada do RAP e exposição do problema da autoria e da mistificação da IA.
  1. Ligação ao campo editorial e ao conceito de publishing futures.
  1. Apresentação de propostas práticas (Genealogia de um Texto, Atlas de Interações, instalações-editoriais).
  1. Integração do capítulo sobre design de transições, memória ativa e agência coletiva.

Encerramento com reposicionamento da IA como espelho e não oráculo.
– Cada camada foi revista e consolidada a partir de versões anteriores, incorporando tanto ajustes de pormenor como reescritas de secções inteiras.

Intervenção editorial
– Ajustes de sintaxe e vocabulário para preservar consistência e densidade argumentativa.
– Integração de referências bibliográficas e autorais previamente trabalhadas noutras conversas (Latour, entre outros).
– Revisão para assegurar fluidez narrativa e coerência entre as partes.

Leave a comment