ARTIGO  
CRIPTOANÁLISE  
abrindo a caixa-preta da inteligência artificial  
Guilherme de Figueiredo Preger  
Universidade Estadual do Rio de Janeiro  
______________________________  
Resumo  
Este artigo apresenta uma revisão do conceito de Inteligência Artificial pela ótica da transformação digital, que  
é, alegadamente, uma transformação dos meios de produção. Esta transformação acaba por confundir o terreno  
da produção, local histórico da análise marxista, com o da reprodução social, levando a uma expansão do campo  
de análise social para além das fronteiras econômicas tradicionais. É observado que a plataformização é a  
arquitetura hegemônica que acomoda a transformação digital. Ela amplia o cercamento dos bens comuns próprio  
ao sistema capitalista acrescentando uma mercadoria fictícia, a informação, às demais já presentes (terra,  
trabalho, dinheiro). Cria-se mais uma camada de regime de acumulação, que denomino de “espetacularização”.  
Como modelo para esta abordagem, é sugerido o método estratégico da criptoanálise que se estabelece pelo  
tratamento da distinção transparência/opacidade, proposta pelo sociólogo Niklas Luhmann. Observa-se que  
esta é a distinção que rege o princípio da complexidade. Com isso, é possível rastrear os danos gerados pelos  
usos indiscriminados da Inteligência Artificial generativa, que estão latentes (ocultos) na adoção da tecnologia.  
O artigo finaliza com uma reflexão sobre o alcance do arcabouço legal e regulatório que está sendo pensado no  
Brasil para esta nova tecnologia.  
Palavras-chave: Transformação digital. Inteligência Artificial Generativa. Criptoanálise.  
Esta obra está licenciada sob uma licença  
LOGEION: Filosofia da informação, Rio de Janeiro, v. 11, ed. especial, p. 1-19, e-7380, nov. 2024.  
ARTIGO  
1 INTRODUÇÃO  
O tema conjunto da plataformização dos processos produtivos e o uso crescente de  
computação por Inteligência Artificial (IA) inserem-se no tema mais abrangente da  
transformação digital. Em artigo anterior, já observei que estamos assistindo a uma  
transformação histórica dos modos de produção (Preger, 2022a). No entanto, esta  
transformação tem sua própria temporalidade, que deverá ser longa, e está conduzindo à  
convergência social entre os conceitos de produção técnica e reprodução social. Esta  
perspectiva de convergência entre produção e reprodução amplia os horizontes da economia  
política para além dos espaços outrora confinados da produção (fábricas e escritórios) para os  
espaços abertos da reprodução social (domésticos e públicos), afetando diretamente não só a  
esfera pública quanto aquilo que na teoria habermasiana foi denominado de “mundo da vida”.  
É objetivo do presente artigo elencar alguns impactos sociais dessa transformação,  
sobretudo seus danos, e propor estratégias para lidar com estes. Será visto que a IA generativa  
amplifica tais danos ao reproduzir discriminações que não são apenas estatísticas mas também  
semânticas. Em artigo anterior (Preger, 2023a), observei que o conceito de democracia, tendo  
como perspectiva a teoria social dos sistemas de Niklas Luhmann, significa a cisão ou  
repartição do poder político. Se, para Luhmann, isso significa a divisão do poder entre  
governo e oposição, o enfrentamento democrático dos danos dos processos de Transformação  
Digital impõe a cunha governança/envolvidos a esta transformação. Em outros termos,  
questionar como serão os processos de governança dessa transformação e qual a sua  
capacidade de regular democraticamente a tecnologia para mitigar danos aos envolvidos.  
2
2 A PLATAFORMIZAÇÃO COMO VEÍCULO DA TRANSFORMAÇÃO DIGITAL  
Antes de abordar a questão específica da Inteligência Artificial, pretendo oferecer um  
enquadramento que considere essa tecnologia como parte de um processo mais amplo, que  
aqui denomino de plataformização da economia e da sociedade. Esta plataformização, por sua  
vez, está dentro de um movimento histórico que é denominado de “transformação digital”.  
Para abordá-lo, começo traçando um quadro da economia política da informação, assunto dos  
mais contemporâneos.  
LOGEION: Filosofia da informação, Rio de Janeiro, v. 11, ed. especial, p. 1-19, e-7380, nov. 2024.  
ARTIGO  
2.1 A ECONOMIA POLÍTICA DA INFORMAÇÃO  
Começo esboçando uma proposta de economia política das plataformas. Aqui retomo  
a noção de “mercadoria fictícia” do importante livro de Karl Polanyi, A Grande  
Transformação (2012). Polanyi observou na formação do capitalismo três principais  
mercadorias que denominou de fictícias, no sentido de que são falsas mercadorias, pois não se  
submetem à lógica do valor de troca: a terra, o trabalho e o dinheiro. O autor austríaco retirou  
este termo justamente da obra de Karl Marx, do conceito de “capital fictício”, que é aquele  
capital que se autovaloriza sem necessidade de passar pela produção. Quero propor uma  
correlação entre os dois conceitos, observando que as três mercadorias citadas por Polanyi  
representam três regimes de acumulação mencionados na obra de Marx: para a terra, a  
expropriação; para o trabalho, a exploração; e para o dinheiro, a especulação financeira. A  
rigor, estes três regimes seguem a estratégia burguesa da acumulação “primitiva”: o  
“cercamento” (enclosure) dos bens comuns. O sistema capitalista transforma os bens em  
capital (privado) quando cerca (delimita) aquilo que era comum e abundante (commons), e  
produz algo raro pela escassez deliberada.  
3
Cada um desses cercamentos representa uma etapa de acumulação na história do  
capitalismo: a primitiva (cercamento das terras e dos recursos naturais), cercamento do  
trabalho (nas fábricas com a revolução industrial) e do dinheiro, com o surgimento dos bancos  
e das finanças. Neste último caso, conforme a obra clássica de Lênin (2021 [1916]), o  
capitalismo “superior” se caracteriza pela imbricação entre o setor financeiro e imperialismo  
expansionista do século XX.  
Embora possamos relacionar o surgimento do neoliberalismo (ou pós-fordismo) ao  
acirramento da lógica financeira no capitalismo, na verdade a nova etapa de financeirização  
das últimas décadas está conectada à formação de um novo regime de acumulação, sobretudo  
a partir da década de 1970, com o acoplamento entre finanças e informação. Este acoplamento  
representa uma mudança no modelo do capitalismo regido pela associação entre bancos e  
indústrias, vigente durante quase todo o século XX, e que é base analítica da teoria do  
capitalismo tardio. Com o surgimento do capital-informação surge uma financeirização não só  
da economia, mas de toda a sociedade, um tipo de “socialização do capital” (Prado, 2024) que  
é típica da época contemporânea. Não há mais associação entre capital bancário (a juro) e  
capital industrial (a lucro), mas sim fusão entre esses capitais, pois mesmo as empresas  
“produtivas” se tornam entidades financeiras.  
LOGEION: Filosofia da informação, Rio de Janeiro, v. 11, ed. especial, p. 1-19, e-7380, nov. 2024.  
ARTIGO  
É argumento deste artigo que estamos assistindo, desde o fim do século passado, à  
formação de mais um regime de acumulação baseado em nova mercadoria fictícia: a  
informação. Como nos exemplos anteriores, a informação também não possui valor de troca:  
quem vende informação não está trocando um tipo de produto por outro, pela mediação do  
dinheiro. Quem vende informação, continua com informação. Não precisa “repor o estoque”,  
com novo ciclo de produção. Seguindo a lógica dos regimes anteriores - de expropriação,  
exploração e especulação - proponho o termo “espetacularização” para caracterizar o regime  
atual.  
O espetáculo não denomina, como na obra clássica de Guy Debord (1997), apenas  
mais um fetichismo do sistema capitalista, isto é, uma mercadoria que prescinde da produção  
e serve de veículo ideológico à reificação da sociedade. Na verdade, há produção de imagens,  
cuja abordagem pode ser incluída no tema da “indústria cultural”, que é, nas palavras de  
Dallas Smythe (1977), também uma “indústria da consciência”. Há agora mais clareza de que  
o espetáculo é outro regime de acumulação a partir do cercamento da informação que resulta  
na forma concentrada da imagem distanciada de que nos fala Debord em sua análise radical.  
Na abordagem do pensador francês, o espectador se torna um “consumidor” passivo de  
imagens “prontas” cuja produção não se sente responsável e também não se reconhece. A  
imagem espetacular é assim uma mercadoria informacional que está submetida a um processo  
de alienação.  
4
2.2 PLATAFORMAS: AS BIG TECHS E OS JARDINS MURADOS DA INFORMAÇÃO  
Este processo alienante alcança sua consumação histórica na formação sociotécnica  
das plataformas. Com as plataformas, a informação como imagem deixa de ser um  
componente ideológico do capitalismo para se transformar numa mercadoria (fictícia). Isto se  
torna possível historicamente com a criação desta potente máquina cibernética denominada  
Internet. Como sabemos, a construção desta máquina se tornou possível com os avanços das  
tecnologias de informação e comunicação (TIC), com o desenvolvimento das técnicas  
computacionais a partir do modelo das máquinas de Turing (1950), com o desenvolvimento  
das tecnologias de fibra óptica e sem fio, etc. A criação da Internet, a partir do modelo da  
Arpanet, nos anos de 1960, do surgimento dos protocolos Ethernet e IP nos anos de 1970, do  
computador pessoal (PC) através da assemblagem de módulos de chips nos anos de 1980,  
ganhou “concretude” (Simondon, 2020) por meio da montagem sociotécnica global (e  
pública) da Internet nos anos de 1990. Manuel Castell observa, em sua obra já clássica, que a  
LOGEION: Filosofia da informação, Rio de Janeiro, v. 11, ed. especial, p. 1-19, e-7380, nov. 2024.  
ARTIGO  
“sociedade em rede” também significou a passagem da comutação de circuitos para a  
comutação de pacotes (viabilizada pelo protocolo Ethernet: Castell, 2013). Cada pacote  
representa assim uma discretização do fluxo de informação, com sua respectiva digitalização.  
É este processo que denomino de “transformação digital”, isto é, a onipresença do código  
digital 1/0 no lugar dos fluxos ondulatórios de sinais informacionais (como nas tecnologias  
analógicas de rádio e televisão, ou nas tecnologias de reprodução audiográfica em vinil,  
fotográfica em rolo de filme e cinematográfica em película).  
Não pretendo aqui novamente contar essa história conhecida, e sim avançar para o  
capítulo mais recente desta transformação digital, a partir do século XXI, com o surgimento  
das mídias sociais digitais (como facebook, twitter, youtube, etc.) e com o processo do que  
atualmente denominamos de “plataformização”. As plataformas digitais surgem como uma  
arquitetura que engloba não apenas as mídias sociais, mas muitas outras ferramentas  
eletrônicas providas pela World Wide Web (www), o ciberespaço da Internet. Essas  
plataformas são, na linguagem vulgar, denominadas de walled gardens, jardins murados. Na  
internet, um “jardim murado" é um ambiente que controla o acesso do usuário a conteúdos e  
serviços baseados em rede. Com efeito, o jardim murado direciona a navegação do usuário  
dentro de áreas específicas para permitir o acesso a uma seleção de materiais ou impedir o  
acesso a outros materiais. Em outros termos: o jardim murado é uma metáfora para  
“cercamento digital”.  
5
As plataformas são a arquitetura hegemônica do modelo de negócio das Big Techs  
(Morozov, 2018), as megacorporações de dados, para exatamente proporcionar o cercamento  
de um domínio no ciberespaço. Dentro deste domínio virtual, a Big Tech tem total controle  
das informações através de protocolos e algoritmos proprietários, quase sempre opacos, que  
são as novas “fórmulas da coca-cola” do universo digital. Essas plataformas se servem de  
concentradores de dados (data centers) centralizados que armazenam os dados de seus  
usuários, com isso obtendo a capacidade de coletá-los, decodificá-los e rastreá-los,  
permitindo, portanto, traçar um perfil informacional de seus usuários.  
Esta arquitetura de cercamento do ciberespaço faz surgir o chamado “capitalismo de  
plataforma” (Srnicek, 2016), isto é, uma forma que condensa os diferentes modos de  
apropriação do capitalismo entre expropriação, exploração, especulação e espetacularização:  
expropriação do ciberespaço através dos jardins murados e do extrativismo digital; exploração  
de uma mão de obra precarizada e distribuída globalmente; especulação porque extrai dados  
dos usuários para estabelecer algoritmos de predição de comportamento; e espetacularização,  
pois constrói uma economia da atenção, para atração semiótica dos olhares e com  
LOGEION: Filosofia da informação, Rio de Janeiro, v. 11, ed. especial, p. 1-19, e-7380, nov. 2024.  
ARTIGO  
funcionamento 24/7 (Crary, 2016). No dizer de Franco Berardi (2024a), trata-se do  
hipercapitalismo que se utiliza de semiocapital criando imediatamente mais uma fratura de  
classes:  
Este capitalismo de plataforma funciona em dois níveis: uma minoria da força de  
trabalho dedica-se à concepção e comercialização de produtos imateriais. Eles  
ganham altos salários e se identificam com a empresa e com os valores liberais. Por  
outro lado, um grande número de trabalhadores geograficamente dispersos dedica-se  
a tarefas de manutenção, controle, etiquetagem, limpeza, etc. Trabalham online por  
salários baixíssimos e não possuem nenhum tipo de representação sindical ou  
política. No mínimo, não podem sequer ser considerados trabalhadores, porque estas  
formas de exploração não são de forma alguma reconhecidas e os seus escassos  
salários são pagos de forma invisível, através da rede celular. No entanto, as  
condições de trabalho são geralmente brutais, sem horários ou direitos de qualquer  
tipo (Berardi, 2024a)  
Como sabido, é comum que essas plataformas ofereçam seus serviços de forma  
supostamente gratuita, pois seu interesse é justamente obter informações de “metadados”, isto  
é, informações sobre informações, de modo a traçar um quadro mais fidedigno dos usuários  
(perfil), sobretudo de seus hábitos de consumo. São exatamente esses perfis as verdadeiras  
mercadorias transacionadas pelas corporações de plataforma a outras empresas que adquirem  
informações valiosas sobre as tendências de consumo. Assim, o capitalismo nesta nova fase  
consegue segmentar o mercado a nível individualizado, criando a imagem de um  
“consumidor-indivíduo” e não mais de um “consumidor-massa”. Essa individualização  
extrema dos consumidores é uma das marcas distintivas do neoliberalismo. Com isso nasce a  
assim chamada “economia da atenção”: o que as plataformas desejam é manter conectados  
full time os usuários, pois elas transformaram em mercadoria o espaço cibernético  
(informacional) para atrair, via algoritmos, a atenção (eyeballs) dos usuários-consumidores  
individualizados.  
6
Mas as plataformas não se restringem àquelas de mídias sociais, ou aos buscadores  
(como google), mas existem aquelas que intermediam a busca por transporte (Uber, 99), as  
entregas (Ifood, Rappi), as de vendas de ingresso (ingresso.com). Todos estes são exemplos  
de plataformas que “parasitam” a circulação econômica de mercadorias e serviços. E há  
também as plataformas de transmissão (streaming) de músicas ou filmes (Spotify, Netflix,  
Amazon TV, Apple TV, etc.) que transmitem a usuários ou residências conteúdos estéticos; há  
as plataformas que fornecem videoconferência (Teams, Zoom, Google Meeting), tendo um  
limite gratuito e um uso pago; plataformas que proporcionam encontros amorosos e/ou  
sexuais (Tinder, Bubble); e plataformas que fornecem serviços de documentos, espaços de  
armazenamento e ferramentas de escritório (Onedrive, Google documents). E finalmente, um  
dos ramos mais intensivos de plataformização é o de moedas digitais (bitcoins), que a partir  
LOGEION: Filosofia da informação, Rio de Janeiro, v. 11, ed. especial, p. 1-19, e-7380, nov. 2024.  
ARTIGO  
do uso da arquitetura blockchain, permite a criação de moedas não fiduciárias, isto é, não  
garantidas pelos aparelhos estatais monetários (Preger, 2022b). Enfim, as plataformas não  
invadiram e tomaram apenas o espaço econômico, virtualizando a economia de serviços, mas  
todo o “mundo da vida”, com consequências que irão influenciar áreas mais amplas do que a  
da produção, sobretudo intensificando a crescente tendência de borrar a fronteira entre este  
setor e a esfera da reprodução social, até então considerada extraeconômica. Por isso elas são  
chamadas de plataformas sociodigitais (PSD, Dantas, 2022).  
Esse cercamento informacional é mais uma camada de expropriação que se sobrepõe  
às demais, gerando uma nova espécie de “extrativismo digital” ou aquilo que está sendo  
denominado de “colonialismo de dados” (Amadeu da Silveira et al. 2021). O termo  
“mineração de dados” (data mining) vem sendo utilizado para descrever o processo de criação  
de moedas digitais, mas também está se referindo às pesquisas por metadados que as  
plataformas exercem com os dados armazenados em seus servidores e com as conexões  
desses dados com os comportamentos dos usuários para a geração de perfis (perfilação) e para  
a antecipação estatística de tendências de consumo. Tudo isso redimensiona a noção da  
cibernética como ciência do controle (Wiener, 2017) dentro de um novo enquadramento de  
“governabilidade algorítmica” (Rouvroy; Berns, 2013), a partir da estatística e da correlação  
de dados por potentes máquinas computacionais.  
7
Esta questão torna ainda mais dramática a introdução das ferramentais de Inteligência  
Artificial (IA), pois intensificam esse processo, permitindo realizar não apenas correlações  
estatísticas, mas também semânticas, sobretudo com a introdução das tecnologias de IA por  
Modelos de Linguagem Ampla (MLA), ditas generativas, que realizam a extração de dados  
dentro de matrizes enriquecidas por aprendizado profundo (deep learning). Todo esse  
processo complexo e acelerado parece tornar quase inviável a análise crítica baseada nos  
tempos mais longos da reflexão. Esse processo, devido à sua complexidade, parece  
completamente opaco à inteligência humana. Porém, como tentarei desenvolver a seguir, esta  
opacidade é irredutível e ao mesmo tempo ela representa não apenas um desafio à capacidade  
crítica, mas também ao próprio processo de governabilidade algorítmica e seu esforço por  
controle.  
2.3 DESINTELIGÊNCIA ARTIFICIAL E A CIBERNÉTICA FORA DE CONTROLE  
É possível observar com mais clareza atualmente o caráter abusivo do conceito de  
“inteligência” dado às recentes máquinas de IA generativas (chatbots). O pensador brasileiro  
LOGEION: Filosofia da informação, Rio de Janeiro, v. 11, ed. especial, p. 1-19, e-7380, nov. 2024.  
ARTIGO  
Álvaro Vieira Pinto, em sua obra póstuma, O Conceito de Tecnologia (2005), já mencionava  
este abuso ao escrever, na década de 1970, que as máquinas cibernéticas não possuem  
inteligência e que esta qualidade é uma característica dos seres viventes (não necessariamente  
humanos) em sua relação com a evolução biológica. Em artigo anterior (Preger, 2023b),  
abordo o artigo seminal de Alan Turing, Computing machinery and intelligence (1950), em  
que procura responder à pergunta “se as máquinas podem pensar”. O matemático britânico  
pondera que não é possível responder a tal pergunta por causa da dificuldade de se definir um  
conceito de consciência, entre outros motivos porque a consciência de um ser é totalmente  
opaca a outro ser. Por isso, ele propõe em seu artigo um “jogo de imitação”, que é uma “saída  
pela tangente” à questão inicial. Em minha própria perspectiva, os recentes chatbots não  
simulam de forma alguma os processos de consciência humana. O que eles efetivamente  
imitam são “conversas” (chats), e o resultado dessas conversas é usualmente apresentado no  
formato de prompts. Por isso, um melhor termo para defini-las seria “Conversação Artificial”.  
Desde o lançamento da máquina do ChatGPT3 (Chat Generative Pre-Trained  
Transformer 3) pela empresa americana OpenAI, em fins de 2022, assistimos a uma  
impressionante corrida tecnológica, com o lançamento de outros softwares baseados em  
modelos matemáticos semelhantes. Em 2024, os pesquisadores John Hopfield e Geoffrey  
Hinton receberam o prêmio Nobel pelas pesquisas com redes neurais que possibilitaram  
desenvolver os modelos computacionais que atualmente abastecem essas máquinas.  
Rapidamente elas alcançaram um uso massivo de milhões de usuários. Atualmente, temos no  
mercado uma ampla gama de softwares concorrentes. A maioria permite um uso gratuito  
limitado, porém cobra assinatura para usos mais intensivos ou profissionais. Começa assim  
uma preocupação com o gasto energético excessivo e pelo consumo de água necessários ao  
funcionamento de tais máquinas. O ChatGPT, por exemplo, gasta cerca de uma garrafa  
d’água para gerar um único e-mail com 100 palavras, além de consumir 0,14 kWh, o  
equivalente ao necessário para manter 14 lâmpadas de LED acesas por uma hora (conferir  
8
Os mais recentes chatbots por IA de MLA realmente simulam conversações com grau  
de verossimilhança e por causa disso se prestam à possibilidade de ludíbrio. A IA generativa é  
assim uma máquina que pode ser utilizada para a geração de engano e para criar falsa  
informação. Não é difícil observar que ela se torna uma arma política quando utilizada por  
grupos de extrema-direita já que esses movimentos se prestam a criar confusão e dissonância  
cognitiva. Como observou o professor Marcos Dantas recentemente (2024), esses grupos  
LOGEION: Filosofia da informação, Rio de Janeiro, v. 11, ed. especial, p. 1-19, e-7380, nov. 2024.  
ARTIGO  
desejam gerar “desorganização informacional", ou, em meus termos, “entropia  
informacional”. Para o professor, essa desorganização é produzida pela destruição das  
redundâncias informativas necessárias para a organização social. O objetivo é produzir  
desorientação política nos eleitores, não só para desviar o foco dos assuntos políticos mais  
relevantes (como o tópico das mudanças climáticas, ou o problema social da desigualdade),  
como para introduzir-se politicamente através de uma doutrina de choque, gerando pânico, e  
assim oferecer soluções espúrias, francamente falsas e autoritárias. Aqui assinalo alguns dos  
“danos” dessas novas tecnologias quando utilizadas para desinformação: roubo e extravio de  
dados privados ou com direitos autorais; vieses na seleção de conteúdo armazenado em  
função de discriminações já presentes no cotidiano (mundo da vida) e que reforçam processos  
de segregação social; geração de logro e engano induzidos nas conversações de usuários com  
agentes de IA para captura de informações ou para dar golpes; geração de desinformação  
intencional (falsa informação) ou equívoca (malinformação ou informação deturpada);  
propagação de vieses ideológicos camuflados por movimentos políticos de direita; geração de  
conteúdo com objetivos ofensivos para atacar reputação social; exposição da intimidade de  
pessoas públicas ou simulação dessa intimidade em realidades virtuais, etc.  
9
Por outro lado, a IA também tem sido utilizada massivamente como armamento  
bélico, sobretudo no recente (em andamento) genocídio do povo Palestino pelas forças  
armadas sionistas. As notícias dão conta que muitos drones utilizam IA para reconhecimento  
de padrões biométricos de supostos inimigos para disparar explosivos. Apesar desses ataques  
“cirúrgicos”, o massacre palestino é uma das guerras onde há maior número de “danos  
colaterais”, com mortes de civis, entre crianças, mulheres, idosos, doentes, médicos, etc  
digital-tools-gaza).  
Outra questão relevante, é que a IA acentua o processo, mencionado anteriormente, de  
extração de dados, transformando seus mecanismos de busca numa pilhagem oculta de dados.  
A IA generativa extrai conteúdos gerados pelos milhões de usuários da rede global de  
computadores e furta dados com propriedades autorais. Torna-se difícil, se não impossível,  
fazer o rastreio de onde o dado foi retirado. Por outro lado, a IA também “desencava” nesses  
dados seus vieses de discriminação racial, sexual, de gênero, etc. Embora esses mecanismos  
de discriminação social já estejam presentes nas comunicações de milhões de usuários, é  
correto dizer que a IA funciona como um aparelho de amplificação e não de moderação  
desses vieses (Preger, 2023b).  
LOGEION: Filosofia da informação, Rio de Janeiro, v. 11, ed. especial, p. 1-19, e-7380, nov. 2024.  
ARTIGO  
Assim, com todos esses danos produzidos pela utilização dessas máquinas  
cibernéticas, começa a ser realizado um balanço mais lúcido entre custos e benefícios do uso  
da tecnologia que se tornou um verdadeiro hype, isto é, um sucesso instantâneo. Em recente  
artigo (2024), um dos mais prestigiados filósofos da informação do mundo, Luciano Floridi,  
presidente do Instituto Alan Turing, na Inglaterra, observou que a IA generativa tem todas as  
características de mais uma bolha tecnológica (tech bubble), seguindo o exemplo de outras  
bolhas ligadas ao domínio cibernético, como a economia dot.com, as moedas digitais, o  
crescimento (boom) das empresas de TIC (episódio Nasdaq), entre outras. Há indícios, já  
presentes, que começa a haver um refluxo na renovação e na pesquisa tecnológica dessas  
ferramentas. Por outro lado, segundo filósofo, é a partir do estouro da bolha que a tecnologia  
começa a ser pensada para utilização mais racional, com ambições menores, mas com maior  
eficácia. Muito provavelmente, a IA generativa tende a se tornar uma tecnologia auxiliar,  
embutida (embedded) em outros produtos, para fins de distinção de preço e qualidade.  
Para fins deste artigo, importa notar que a IA generativa acrescenta uma camada de  
complexidade à plataformização da sociedade, e que esta complexidade se traduz como uma  
espessa opacidade. Esta opacidade se mostra, no entanto, uma característica irredutível da  
complexidade. A sugestão de que a cibernética é uma ciência para a sociedade de controle  
(Deleuze, 1990) estava presente na primeira onda da disciplina aberta por Norbert Wiener. No  
entanto, o surgimento da “cibernética de segunda ordem” ou cibernética da cibernética (von  
Foerster, 2002) relativizou a capacidade de um sistema controlar o outro por causa dos  
paradoxos resultantes de todo artifício de controle. No caso, a opacidade representa uma  
“zona de sombra” ou um campo cego” para o controle. O ponto fundamental é observar que  
este campo cego é um produto da própria operação de controle. Todo controle engendra sua  
zona de sombra. A questão não é apenas que a IA generativa gera uma opacidade para os  
usuários, mas também para o próprio sistema que a utiliza. Este fato obriga a uma mudança de  
paradigma para a sua adoção racional.  
10  
3 A CRIPTOANÁLISE E O INCONSCIENTE CONECTIVO  
3.1 O FIM DA MENTE CRÍTICA  
Proponho então o conceito de “criptoanálise” como método de abordagem para  
enfrentar um problema assinalado por muitos estudiosos contemporâneos das redes digitais: a  
impotência da razão crítica frente à massiva geração de dados, a onda de desinformação  
LOGEION: Filosofia da informação, Rio de Janeiro, v. 11, ed. especial, p. 1-19, e-7380, nov. 2024.  
ARTIGO  
utilizada para fins políticos e a velocidade de processamento das mídias digitais. O problema  
não é novo. O famoso pensador das tecnologias Marshall McLuhan já previa em trabalho  
clássico (Mcluhan, 1974) que a “mente alfabética”, treinada para decodificar signos  
alfabéticos e sequenciais, não estava preparada para competir com o cérebro eletrônico. O  
filósofo theco-brasileiro Vilém Flusser fez observações semelhantes ao lembrar que a crítica é  
uma atividade seletora, necessária para discriminar entre o verdadeiro e o falso, mas que esta  
capacidade de seleção não poderia concorrer em velocidade com a capacidade seletiva das  
máquinas computacionais (Flusser, 2007, 2008, 2010). Mais recentemente, o filósofo italiano  
Franco Berardi escreveu sobre o “fim da mente crítica” nos seguintes termos:  
Durante treze horas, a mente fica exposta a estímulos da infosfera. Um leitor de  
livros poderia expor sua mente à recepção de sinais alfabéticos por muitas horas,  
mas a intensidade e a velocidade dos impulsos eletrônicos são incomparavelmente  
maiores. Quais são as consequências dessa transformação tecnocomunicativa?  
Resumindo: a mente submetida ao bombardeio ininterrupto de impulsos eletrônicos,  
independentemente de seu conteúdo, funciona de forma completamente diferente da  
mente alfabética, que tinha a capacidade de discriminar entre o verdadeiro e o falso  
nas informações e que tinha a capacidade de construir um procedimento de  
elaboração individual. Na verdade, essa capacidade depende do tempo de  
processamento emocional e racional, que, no caso de um jovem que vive treze horas  
por dia na infosfera eletrônica, é reduzido a zero. (Berardi, 2024b)  
11  
O que é crucial nesta perspectiva é que as esperanças colocadas na atividade crítica  
como capaz de selecionar entre o “joio e o trigo” das mensagens, entre informação verdadeira  
e desinformação, entre narrativa verossímil e fake news, entre notícia relevante e irrelevante,  
entre conhecimento e negacionismo, entre ciência e pseudociência, parecem se desfazer  
quando observamos a impressionante massa dos dados gerados nas redes digitais e a  
aceleração do processamento computacional. O surgimento da IA generativa, que é capaz de  
analisar imensos repertórios de dados de forma totalmente “opaca” ao usuário, torna ainda  
mais inviável tal seleção crítica.  
3.2 TRANSPARÊNCIA E OPACIDADE  
Proponho então adotar como critério de análise,  
a
distinção entre  
transparência/opacidade, proposta pelo sociólogo Niklas Luhmann em seu último artigo em  
vida (Luhmann, 1997). Embora tenha falecido bem no início da onda de transformação digital  
e da rede mundial de computadores (www), Luhmann criou uma análise dos sistemas sociais  
baseados em distinções binárias que se adequa a uma sociedade que se comunica  
prioritariamente através de meios digitais. Em sua análise radical, a sociedade é constituída  
exclusivamente por comunicações, e estas são dirigidas por distinções binárias (Silva, 2016).  
LOGEION: Filosofia da informação, Rio de Janeiro, v. 11, ed. especial, p. 1-19, e-7380, nov. 2024.  
ARTIGO  
Uma distinção binária gera uma “forma de dois lados”: o lado marcado e o lado não marcado  
(na análise luhmanniana denominado de medium ou “meio”). Esta separação ocorre pois toda  
distinção é resultado de uma observação e esta deve sempre decidir pelo seu foco, ou seja,  
deve incluir um espaço observado focal distinguindo-o de um espaço que está fora da  
observação (ponto ou campo cego).  
Baseado em tal premissa, o sociólogo alemão adota a noção de que todo sistema é  
acompanhado pelo seu outro lado não marcado, o ambiente (ou entorno), e que toda operação  
sistêmica é a reprodução da diferenciação entre sistema e ambiente. O ambiente é tudo aquilo  
que não é sistema. Nisso, os sistemas são autorreferenciais: o resultado da operação  
diferencial do sistema é o próprio sistema, isto é, a operação significa a reprodução do sistema  
(recursividade). No entanto, esta diferenciação tem como resultado a “reentrada” do ambiente  
no sistema, um conceito que Luhmann retirou do engenheiro George Spencer-Brown. A  
reentrada é uma generalização do conceito de feedback cibernético. Assim, como toda  
observação depende daquilo que não é observado, também todo o sistema depende do “campo  
cego” que vem a ser seu ambiente. A reentrada marcada pela presença do lado não marcado  
no lado marcado gera um paradoxo no interior do sistema e a resolução deste paradoxo  
produz “complexidade”.  
12  
O que Luhmann propõe com esta distinção é a ideia de que a complexidade vem da  
relação entre transparência e opacidade. Segundo o sociólogo, todo esforço por transparência  
acaba por produzir mais opacidade. Ele então propõe que o tratamento da complexidade, isto  
é, da co-implicação entre transparência e opacidade, deve inserir mais “tempo” no sistema, ou  
seja, o tempo é a variável que permite a resolução dessa relação complexa. O tempo se  
manifesta então como uma “latência” do sistema. O que se entende por opacidade neste  
contexto é o fato de que atrás da forma manifesta pelas plataformas há toda uma esfera  
infraestrutural não aparente, composta não apenas pela camada “física” (servidores,  
roteadores, switches, computadores), mas também uma camada algorítmica, composta por  
protocolos opacos que regulam o comportamento das plataformas. Esses protocolos são  
muitas vezes opacos porque são proprietários e criptografados.  
3.3 CRIPTOANÁLISE E O INCONSCIENTE CONECTIVO  
A criptoanálise é método proposto para lidar com essas camadas de “cegueira” que se  
inserem como opacidade nas plataformas e na rede mundial de computadores como  
verdadeiras “caixas-pretas”. Inicialmente, este método abdica da ilusão de que é possível  
LOGEION: Filosofia da informação, Rio de Janeiro, v. 11, ed. especial, p. 1-19, e-7380, nov. 2024.  
ARTIGO  
desvendar toda a opacidade do funcionamento das redes. Como exemplo, podemos considerar  
o fenômeno da “conspiritualidade” descrito pela antropóloga Letícia Cesarino (2022) em sua  
pesquisa sobre a atuação dos grupos de extrema-direita nas mídias sociais. Conspiritualidade  
é um termo composto para indicar o misto entre as teorias da conspiração que pululam nas  
redes e a adesão quase-religiosa por crenças de milhares de seguidores. Ora, trata-se  
precisamente de um artifício social para lidar com o fenômeno da opacidade das redes. As  
teorias da conspiração oferecem narrativas (e explicações) para certas ocorrências que  
justamente estão ocultas aos usuários, pelas muitas camadas de complexidade. Assim, o  
sucesso das conspirações resulta do efeito de “trivializar” o social, explicando o complexo  
em termos de causalidades lineares, quando é na verdade gerado por causalidades circulares  
(reentradas). Trata-se de uma estratégia frequentemente utilizada pelos movimentos de  
extrema-direita, através de narrativas que reforçam muitos elementos segregadores que estão  
anexos às obscuridades das redes.  
Ao contrário da conspiritualidade, a criptoanálise se baseia numa escavação desse  
território opaco, sem no entanto alimentar explicações lineares e sem supor que esta  
obscuridade possa ser eliminada. No mesmo texto em que descreve a falência da mente  
crítica, Franco Berardi escreve sobre o “inconsciente conectivo” que toma o lugar do  
inconsciente coletivo, e sobre o “psicopoder” exercido sobre a “psicoesfera” pelas Big Techs  
e pelos movimentos de extrema-direita, nessa convergência política denominada de ultra-  
direita. O inconsciente conectivo é o inconsciente das redes que permeia a comunicação dos  
usuários que estão sendo treinados desde crianças a lidar com telas e a falar com interfaces  
digitais algoritmizadas. Há uma perda, segundo Berardi, da capacidade semiótica da  
linguagem, que é fortemente analógica, e um decréscimo da vida libidinal que depende da  
expressividade corporal.  
13  
A criptoanálise toma de empréstimo da psicanálise alguns de seus métodos, pois  
também esta disciplina procurava desvendar os desvãos obscuros da mente humana. O  
fenômeno da transferência, por exemplo, que significa a interação inconsciente entre analista  
e analisando, se torna para a criptoanálise a consciência de seu perspectivismo: o olhar do  
observador precisa ser incluído na perspectiva tomada (este é um dos fundamentos da  
cibernética de segunda ordem). Em outros termos: o olhar do espectador projeta mais  
opacidade no fenômeno estudado. Sempre há vieses na leitura: a questão é separar quais  
vieses são realmente relevantes.  
Outro passo é seguir a dica de Niklas Luhmann: lidar com a complexidade é injetar  
mais temporalidade no sistema. O que isso significa? Aqui há uma semelhança com a  
LOGEION: Filosofia da informação, Rio de Janeiro, v. 11, ed. especial, p. 1-19, e-7380, nov. 2024.  
ARTIGO  
orientação do “tempo lógico” da psicanálise lacaniana: significa trabalhar com temporalidades  
múltiplas e distintas. Para observar as reentradas do não marcado no marcado, da opacidade  
na transparência, é preciso abandonar a ideia de um tempo único simultâneo, contido  
ideologicamente na expressão “tempo real”. Significa justamente observar as latências no  
interior do sistema estudado que se manifestam em defasagem com relação aquilo que é o  
programa hegemônico ou “axial” das redes (Preger, 2024). É observar as “equivocações” dos  
sistemas, um termo utilizado na teoria matemática da informação de Claude Shannon para  
designar a entrada de ruído no sinal e a impossibilidade de sua recuperação fidedigna (sem  
erros) pelo receptor da comunicação. Equivocar pode ser sinônimo ou tradução de “hackear”,  
um termo frequentemente utilizado para descrever as atividades de programadores que se  
desviam da norma e se utilizam de protocolos existentes para criar seus próprios códigos  
(Wark, 2023).  
Finalmente, em outro empréstimo lacaniano do famoso dito “o inconsciente é  
estruturado como uma linguagem”, o criptoanalista sabe que o inconsciente conectivo é  
estruturado como um código. Neste caso, um código criptografado. Observar o lado opaco  
dos códigos transparentes significa tentar encontrar as chaves criptográficas de seus aspectos  
ocultos. Esse procedimento criptografado de programas hegemônicos se dá muitas vezes  
como estratégia política ou econômica de dissimulação nas redes. A criptoanálise, por sua  
vez, é mais do que um método analítico, é uma estratégia de “olhar lateral” que procura  
“quebrar” esses códigos fechados, criando outros códigos a partir de códigos existentes. Ou  
seja, é uma atividade criativa. Pois mais importante do que “ler” um código existente  
hegemônico, é criar outro código que possa disputar a hegemonia com ele. Como tentei  
demonstrar em livro recente (Preger, 2024), isto significa adotar uma “perspectiva oblíqua”  
que produza certa “diferenciação angular” a partir de programas “marginais”, não-  
hegemônicos. Em outras palavras, a criptoanálise é uma estratégia para um “agonismo  
cibernético” que dispute as influências no jogo assimétrico do psicopoder conectivo. Como  
observo na conclusão adiante, já existem experiências digitais que representam alternativas ao  
domínio cibernético do modelo das plataformas e dos algoritmos, com maior presença de  
participação humana.  
14  
4 CONCLUSÃO  
No momento da escrita deste artigo, encontra-se no Senado Federal brasileiro o  
Projeto de Lei n° 2338, de 2023, ainda não votado, que dispõe sobre o uso da Inteligência  
LOGEION: Filosofia da informação, Rio de Janeiro, v. 11, ed. especial, p. 1-19, e-7380, nov. 2024.  
ARTIGO  
Artificial no país. Este PL é a base do Novo Plano Brasileiro de Inteligência Artificial (2024),  
programa de apoio governamental para desenvolvimento e regulação da tecnologia de IA. O  
PL 2338 estabelece como princípios alguns itens relevantes para este artigo, em particular os  
parágrafos abaixo:  
… II – autodeterminação e liberdade de decisão e de escolha; III – participação  
humana no ciclo da inteligência artificial e supervisão humana efetiva; IV – não  
discriminação; … ; VI – transparência, explicabilidade, inteligibilidade e  
auditabilidade; … IX – rastreabilidade das decisões durante o ciclo de vida de  
sistemas de inteligência artificial como meio de prestação de contas e atribuição de  
responsabilidades  
a
uma pessoa natural ou jurídica;... (PL 2338/2023,  
71801&disposition=inline).  
64  
Esses princípios conduzem aos seguintes direitos, entre outros:  
“II – direito à explicação sobre a decisão, recomendação ou previsão tomada por  
sistemas de inteligência artificial;...IV – direito à determinação e à participação  
humana em decisões de sistemas de inteligência artificial, levando-se em conta o  
contexto e o estado da arte do desenvolvimento tecnológico; V – direito à não-  
discriminação e à correção de vieses discriminatórios diretos, indiretos, ilegais ou  
abusivos;... (idem).  
Assim, explicitamente na lei estão mencionados os tópicos de transparência,  
explicabilidade, inteligibilidade, auditabilidade, rastreabilidade, bem como o direito à  
participação humana em decisões, correção de vieses, etc. Em outros termos, o projeto legal  
se baseia numa compreensão de (quase) perfeita transparência, sem deixar espaço para as  
prováveis opacidades. O método da criptoanálise aqui apresentado afirma que esta eliminação  
de obscuridade é inviável, pois sempre haverá um resíduo de opacidade como campo cego.  
Isto significa que é possível dizer que o PL fracassará em sua aplicabilidade e será afinal letra  
morta, como tantas outras leis? Creio que não é possível, nem desejável, afirmar isto. A  
criptoanálise indica que é preciso favorecer as soluções que desde o princípio já incluam  
como embutidos os critérios de uso responsável. É imperativo que haja regulação legal das  
plataformas e de seus algoritmos. Sobretudo é necessário criar um sentido de  
responsabilização pública e decisão ética comunitária. Em relação à IA, é preciso utilizar o  
princípio da precaução, que diz que se há riscos de danos, deve haver planos de mitigação e  
contorno e, em casos mais graves, planos de evitação (e eventualmente proibição legal). Os  
riscos precisam estar incluídos nos desenhos das tecnologias. Já existem casos  
tecnologicamente acessíveis de redes moderadas por maior intervenção humana, como é o  
caso das redes federadas que se utilizam do protocolo aberto ActivityPub, como o Mastodon  
(microblog), o Pixelfed (plataforma de fotos), o Lemmy (plataforma de discussão), e o  
Peertube (plataforma de vídeo). Todos esses casos são mídias que se utilizam de servidores  
15  
LOGEION: Filosofia da informação, Rio de Janeiro, v. 11, ed. especial, p. 1-19, e-7380, nov. 2024.  
ARTIGO  
descentralizados e moderação humana. Há também o incremento de soluções através do  
cooperativismo de plataforma (Scholz, 2016). Em relação às plataformas de vendas de  
serviço, capitalistas, é importante que elas tenham um regime tributário bem definido e que as  
relações com a mão de obra terceirizada (motoristas e entregadores de aplicativo, entre outras  
categorias profissionais) seja formalizada com os rigores de outros serviços de autônomos, já  
existentes. Com todo discurso a respeito de sua excepcionalidade, o fato é que tais  
plataformas ainda são empresas capitalistas que vendem certo tipo de mercadoria.  
16  
LOGEION: Filosofia da informação, Rio de Janeiro, v. 11, ed. especial, p. 1-19, e-7380, nov. 2024.  
ARTIGO  
REFERÊNCIAS  
AMADEU DA SILVEIRA, Sergio et al. Colonialismo de dados. São Paulo: Autonomia  
Literária, 2021.  
BERARDI, Franco. Hipercapitalismo e semiocapital. Disponível em:  
franco-bifo-berardi, 2024a. Acesso em: 24 out. 2024.  
BERARDI, Franco. Para uma antropologia do novo fascismo. Disponível em:  
artigo-de-franco-berardi, 2024b. Acesso em: 24 out. 2024.  
CASTELLS, Manuel. A sociedade em rede. vol I. São Paulo: Paz e Terra, 2013.  
CESARINO, Letícia. O mundo do avesso: verdade e política na era digital. São Paulo: Ubu  
Editora, 2022.  
CRARY, Jonathan. 24/7 – Capitalismo tardio e os fins do sono. São Paulo: Ubu Editora,  
2016.  
DANTAS, Marcos. A matemática da desordem informacional. Disponível em:  
24 out. 2024.  
17  
DANTAS, Marcos. Informação, Trabalho e Capital. In: DANTAS et al. O valor da  
informação: de como o capital se apropria do trabalho social na era do espetáculo e da  
internet. São Paulo: Boitempo, 2022.  
DEBORD, Guy. A sociedade do espetáculo. Rio de Janeiro: Contraponto, 1997.  
DELEUZE, Gilles. Post-Scriptum sobre as Sociedades de Controle. L'Autre Journal, n. 1,  
maio de 1990.  
FLORI, Luciano. Why the ai hype is another tech bubble. Disponível em:  
work_card=title, 2024. Acesso em: 24 out. 2024.  
FLUSSER, Vilém. A escrita: há futuro para a escrita. São Paulo: Annablume, 2010.  
FLUSSER, Vilém. O mundo codificado: por uma filosofia do design e da comunicação. São  
Paulo: Cosac Naify, 2007.  
FLUSSER, Vilém. O universo das imagens técnicas: elogio da superficialidade. São Paulo:  
Annablume, 2008.  
LÊNIN, Vladímir I. Imperialismo, estágio superior do Capitalismo. São Paulo: Boitempo,  
2021.  
LUHMANN, Niklas. The control of intransparency. SYST. RES. BEHAV. SCI. VOL. 14,  
359–371 (1997). Disponível em: https://www.academia.edu/4384022/Luhmann_  
Control_Of_Intransparency. Acesso em: 24 out. 2024.  
LOGEION: Filosofia da informação, Rio de Janeiro, v. 11, ed. especial, p. 1-19, e-7380, nov. 2024.  
ARTIGO  
MCLUHAN, Marshall. Os meios de comunicação como extensão do homem. São Paulo:  
Cultrix, 1974.  
MOROZOV, Evgeny. Big tech: a ascensão dos dados e a morte da política. São Paulo: Ubu  
Editora, 2018.  
PINTO, Álvaro Vieira. O conceito de tecnologia. Volume II. Rio de Janeiro: Contraponto,  
2005.  
POLANYI, Karl. A grande transformação: as origens de nossa época. Rio de Janeiro:  
Elsevier, 2012.  
PRADO, Eleutério. Sobre a socialização do capital. Disponível em:  
out. 2024.  
PREGER, Guilherme. A democracia segundo Niklas Luhmann. Logeion: Filosofia da  
Informação. v. 10 (2023a): Edição Especial - Anais do XIX Colóquio Habermas e X  
Colóquio de Filosofia da Informação. Disponível em: https://revista.ibict.br/  
fiinf/article/view/6752. Acesso em: 24 out. 2024.  
PREGER, Guilherme. Da economia circular à ecologia das redes: as vantagens comparativas  
da transformação digital para a economia solidária. Logeion: Filosofia da Informação. v. 9  
(2022a): Edição Especial - Anais do XVIII Colóquio Habermas e IX Colóquio de Filosofia da  
18  
PREGER, Guilherme. Jogos de imitação em chatbots. Disponível em:  
2024.  
PREGER, Guilherme. O futuro das criptomoedas. Disponível em:  
PREGER, Guilherme. Teoria geral dos aparelhos: tratado da engenharia política. Ouro  
Preto: Caravana, 2024.  
ROUVROY, Antoinette; BERNS, Thomas. Algorithmic governmentality and prospects of  
emancipation: disparateness as a precondition for individuation through relationships?  
SILVA, Artur Stamford da. 10 lições sobre Luhmann. Petrópolis: Vozes, 2016.  
SIMONDON, Gilbert. Do modo de existência dos objetos técnicos. Rio de Janeiro:  
Contraponto, 2020.  
SMYTHE, Dallas. Communications: Blind spot of western marxism. Canadian Journal of  
Political and Social Theory/Revue canadienne de theorie politique et sociale, vol. 1, n. 3  
(Fall/Automne 1977).  
LOGEION: Filosofia da informação, Rio de Janeiro, v. 11, ed. especial, p. 1-19, e-7380, nov. 2024.  
ARTIGO  
SRNICEK, Nick. Platform Capitalism. Cambridge: Polity Press, 2016.  
VON FOERSTER, Heinz. Ethics and Second-Order Cybernetics. Understanding  
understanding: essays on cybernetics and cognition. New York: Springer-Verlag, 2003.  
WARK, McKenzie. Um manifesto hacker. São Paulo: Funilaria, 2023.  
WIENER, Norbert. Cibernética: ou controle e comunicação no animal e na máquina. São  
Paulo: Perspectiva, 2017.  
19  
LOGEION: Filosofia da informação, Rio de Janeiro, v. 11, ed. especial, p. 1-19, e-7380, nov. 2024.