Guilherme Preger[1]
gfpreger@yahoo.com.br
______________________________
Resumo
Este artigo investiga os impactos da “governamentalidade algorítmica” (Rouvroy; Alves, 2020) na esfera pública burguesa com o surgimento de mídias sociais digitalizadas em plataformas capitalistas reguladas por algoritmos de códigos proprietários. O artigo responde aos artigos de Habermas (2022), Gerbaudo (2022) e Bentes (2024) sobre a transformação da esfera pública digital em esfera pública plebeia ou esfera pública líquida. É defendido que a opacidade gerada pela digitalização das mídias é irredutível e faz parte da característica de uma sociedade complexa. O estudo refina a estratégia da criptoanálise para a abordagem dessas mídias proposta anteriormente em Preger, 2024, propondo a ideia de uma regulação da regulação algorítmica, ou seja, uma regulação reflexiva, tendo como modelo o teorema do bom regulador (Conant; Ashby, 1970). Porém, indica que há problemas indecidíveis no sistema político que não podem ser decididos a priori por algoritmos. Para estes problemas, o artigo propõe considerar a comunicação social como elemento regulador através da práxis dialógica definida na obra clássica de Paulo Freire (2011[1968]). No entanto, observa que essa práxis está inserida numa prática política agonística entre governantes e governados. Conclui-se que apenas uma democracia agonística pode ser a boa reguladora de um sistema político complexo.
Palavras-chave: Esfera Pública. Governamentalidade algorítmica. Criptoanálise.
THE UNDECIDABLE DEMOCRACY
Abstract
This article investigates the impacts of “algorithmic governmentality” (Rouvroy; Alves, 2020) on the bourgeois public sphere with the emergence of digitized social media on capitalist platforms regulated by proprietary code algorithms. The article responds to the articles by Habermas (2022), Gerbaudo (2022), and Bentes (2024) on the transformation of the digital public sphere into a plebeian public sphere or liquid public sphere. It argues that the opacity generated by the digitization of media is irreducible and is part of the characteristic of a complex society. The study refines the cryptanalysis strategy for approaching these media previously proposed in Preger, 2024, proposing the idea of a regulation of algorithmic regulation, that is, a reflexive regulation, using the good regulator theorem (Conant; Ashby, 1970) as a model. However, it indicates that there are undecidable problems in the political system that cannot be decided a priori by algorithms. For these problems, the article proposes considering social communication as a regulatory element through the dialogical praxis defined in the classic work of Paulo Freire (2011[1968]). However, it observes that this praxis is embedded in an agonistic political practice between rulers and the ruled. It concludes that only an agonistic democracy can be a good regulator of a complex political system.
Keywords: Public Sphere. Algorithmic Governmentality. Cryptanalysis.
LA DEMOCRACIA INDECIDIBLE
Resumen
Este artículo investiga los impactos de la “gubernamentalidad algorítmica” (Rouvroy y Alves, 2020) en la esfera pública burguesa con el surgimiento de las redes sociales digitalizadas en plataformas capitalistas reguladas por algoritmos de código propietario. El artículo responde a los trabajos de Habermas (2022), Gerbaudo (2022) y Bentes (2024) sobre la transformación de la esfera pública digital en una esfera pública plebeya o líquida. Argumenta que la opacidad generada por la digitalización de los medios es irreductible y forma parte de las características de una sociedad compleja. El estudio perfecciona la estrategia de criptoanálisis para abordar estos medios, propuesta previamente en Preger (2024), y plantea la idea de una regulación de la regulación algorítmica, es decir, una regulación reflexiva, utilizando el teorema del buen regulador (Conant y Ashby, 1970) como modelo. Sin embargo, esto indica que existen problemas indecidibles en el sistema político que no pueden resolverse a priori mediante algoritmos. Para abordar estos problemas, el artículo propone considerar la comunicación social como un elemento regulador a través de la praxis dialógica definida en la obra clásica de Paulo Freire (2011 [1968]). No obstante, observa que esta praxis se encuentra inmersa en una práctica política agonística entre gobernantes y gobernados. Concluye que solo una democracia agonística puede ser un buen regulador de un sistema político complejo.
Palabras clave: Esfera pública. Gubernamentalidad algorítmica. Criptoanálisis.
1 INTRODUÇÃO : A ESFERA PÚBLICA LÍQUIDA
Este artigo busca continuar a investigação sobre os efeitos da transformação digital sobre a esfera pública, seguindo a pesquisa aberta em artigo anterior em que foi proposta, de maneira especulativa, a estratégia da “criptoanálise” para lidar com a crescente opacidade das mídias digitais (Preger, 2024). Essa opacidade é resultado de sua complexidade, mas também do uso intensivo de protocolos proprietários pelas plataformas capitalistas. Neste artigo, o foco está na regulação algorítmica no contexto o qual a pesquisadora francesa Antoinette Rouvroy denominou de “realismo algorítmico”, ou seja, o empuxo irresistível para regular por algoritmos tanto a infraestrutura econômica quanto a superestrutura normativa da sociedade (Rouvroy, 2025).
Três artigos instigaram as presentes e seguintes reflexões. O primeiro artigo é o do pensador, inspirador do Colóquio, Jürgen Habermas, que refletiu sobre a recente transformação da esfera pública com sua digitalização. Nesse ensaio, Habermas traz à luz uma possível nova reestruturação da esfera pública burguesa com a perda de prestígio da mídia impressa e a multiplicação das mídias sociais digitalizadas. Isso estaria levando, entre outros efeitos, a fragmentação da esfera pública com a formação de “câmaras de ecos”, a redução dos espaços presenciais (face-to-face) de deliberação, a dominância da distinção amigo/inimigo que impede a formação de diálogos e o esmaecimento da distinção entre público e privado. Todos esses elementos conduzem, segundo o pensador alemão, ao enfraquecimento das possibilidades de consenso através do uso da racionalidade argumentativa em espaços de deliberação (Habermas, 2022). Não é propósito deste artigo discutir a validade descritiva da teoria habermasiana, mas observar que seu conceito seminal de esfera pública sofre grande impacto no contexto da digitalização das mídias comunicativas.
Um segundo artigo instigador é o do sociólogo italiano Paolo Gerbaudo, um estudioso das relações entre os movimentos sociais e o uso das mídias sociais. Paolo Gerbaudo é o criador do termo “Partido Digital”. Em resposta ao artigo de Habermas, ele argumentou que as mídias sociais digitais, com suas enquetes e votações, conduzem não a um modelo de democracia deliberativa, como idealmente formalizado pelo teórico alemão, mas sim a um modelo “plebiscitário” de caráter opinativo. Para o sociólogo, estamos passando da Esfera Pública Burguesa à Esfera Pública das Mídias Sociais ou Plebeia, que não é baseada em relações de trabalho ou interesses de classe. A democracia conectada em rede (online) tende a ser uma democracia plebiscitária e não deliberativa, mais reativa do que ativista. Democracia reativa porque reage em função de afetos e não de argumentos racionais, e se mobiliza com economia de esforços (likes) e não através de engajamentos ou de organizações concretas. Ele toma da pensadora Hannah Arendt o conceito de “oclodemocracia”, ou democracia das hordas, pelo caráter momentâneo e provisório de formação de grupos sociais politizados, que desaparecem tão rapidamente quanto surgem, sem o trabalho permanente de manter sua coesão organizativa. Porém, para Gerbaudo, a questão não é apenas de condenação moral ou ceticismo político sobre esse tipo de engajamento político, mas de observar quais são as estratégias para alinhar tais “hordas digitais” em prol de políticas progressistas (Gerbaudo, 2022).
Finalmente, a pesquisadora brasileira Ivana Bentes publicou recentemente um artigo com visão muito próxima a do pensador italiano. Ela sugere que no “espaço público digital” ocorre a formação de um “comentariado”, que é um tipo de reação social impulsiva para comentar todo e qualquer assunto político, como se esses comentários pudessem guiar o rumo dos acontecimentos. Com isso, formam-se “caixas de ressonância" que repercutem discursos como veículos afetivos. Ela fala que os “enxameamentos” dessa agregação veloz de perspectivas semelhantes, que poderíamos denominar de “feedback positivo” das redes digitais, acaba por tornar esse espaço público líquido ou volúvel. No entanto, por causa das estratégias mercantis das plataformas, ocorre uma modulação das reações emocionais por algoritmos (Bentes, 2025).
Este presente artigo pega o gancho final do artigo da pesquisadora para elaborar de forma mais desenvolvida o conceito proposto de criptoanálise. Pois, de fato, os algoritmos servem atualmente para modular reações e comportamentos de forma completamente sutil e opaca (e muitas vezes desavisada ou mesmo ilegal) dos usuários das plataformas, as quais são onipresentes como intermediárias das comunicações sociais. Considero a princípio, como defendido em toda obra do sociólogo alemão Niklas Luhmann, que a sociedade é composta unicamente de comunicações (Silva, 2016). Essa tese seminal de Luhmann é a premissa da técnica da criptoanálise. No desenvolvimento da atual proposta, a criptoanálise é uma estratégia para controle social dos algoritmos através da comunicação como “regulação da regulação algorítmica”, incluindo aí portanto seu uso reflexivo. Porém, para fazer esta análise é preciso iniciar por admitir que a opacidade gerada pelo uso intensivo das mídias digitais é uma característica irredutível de sua complexidade. E isso porque este uso, além de intensivo, é recursivo. Somente aceitando-se sua opacidade como contraparte de sua complexidade, o “realismo algorítmico” pode ser enfrentado de forma verdadeiramente realista.
2 CRIPTOANÁLISE: A BOA REGULADORA DOS ALGORITMOS
2.1 O REALISMO ALGORÍTMICO
O tema do “realismo algorítmico” está baseado no conceito da pesquisadora Antoinette Rouvroy de “governamentalidade algorítmica” , entendido como seguinte.
A governamentalidade algorítmica é a hipótese de um governo do mundo social que se baseia no processamento algorítmico de grandes volumes de dados [big data] e não em políticas, leis e normas sociais. Jacques Rancière explicou que existe, na base da política, uma estética, ou seja, um sistema de formas a priori (convencionais, institucionais) - a divisão entre o tempo e o espaço, o visível e o invisível, o discurso e o ruído - que define tanto o lugar quanto o alicerce da política como uma forma de experiência. Por contraste, a governamentalidade algorítmica aparece como uma forma anestética, fluida, ágil, perfeitamente destituída de formas a priori – inclusive da própria linguagem -, substituídas pelo automático (algorítmico), plástico (ágil), emergências hiperfluídas de padrões, pontuações, emparelhamentos, perfis,...detectados e refinados em tempo real por meio de uma detecção geométrica de distâncias e correlações entre pontos de dados [data points] em um espaço puramente métrico (Rouvroy; Alves, 2020).
O governo dos algoritmos significa o controle social tanto da infraestrutura material, quanto da superestrutura ideológica a partir de um espaço métrico, numérico, adimensional. Rouvroy se preocupa que este controle é realizado sobretudo a partir de correlações de dados já digitalizados e não através da pesquisa contextual que ocorre por meio de causalidades eficientes ou finais. No caso dos grandes volumes de dados (big data), embora os artefatos cibernéticos possam encontrar correlações não facilmente detectáveis pela observação humana, essas correlações são sempre já “dadas”, ou seja, redundantes. Elas não representam uma pesquisa num universo contextual aleatório ou quase-aleatório e, portanto, não podem significar algo novo. Além do mais, a correlação não significa causalidade e muito menos sentido. Para descobrir a causalidade é preciso pensar em variáveis temporais que são eliminadas ou reduzidas a um sincronismo mecânico. Para encontrar o sentido é preciso uma abordagem que leve em conta as relações entre sistema e ambiente, entre o texto e seu contexto.
Mas o que são os algoritmos? É preciso conceituar antes o termo para poder lidar com ele. Os algoritmos são conjuntos de instruções de programas para resolução de problemas. Os programas, portanto, contêm as instruções. Num certo sentido, é possível entender os algoritmos como codificações do programa em termos de prescrições. O problema, por sua vez, em sua própria etimologia, é algo lançado (ballo) adiante (pro) que impede (obstaculiza) um processo. Em termos algorítmicos, um problema surge quando algo exige uma decisão. Na teoria da computação, tais questões são denominadas de “problemas de decisão” (Entscheidungsproblem). Como mostrarei mais adiante, um programa é composto de questões decididas a priori, que desobstruem o processamento computacional, porém nem todas as questões podem ser decididas a priori, pois há questões indecidíveis.
Daí se entende que os algoritmos se tornam uma questão própria à sociedade cujos meios comunicativos estão digitalizados. Aqui algumas observações se tornam necessárias. A saída mais comum para lidar e regular tais algoritmos para evitar seus efeitos nocivos é clamar por mais transparência, e por mais ética na sua formulação. Conforme apontei em artigo anterior, esta exigência por mais transparência é a característica principal do projeto de lei brasileiro (PL 2338/2023) que pretende regular as plataformas (Preger, 2024). Porém, esta demanda social esbarra nas características de fundo das tecnologias de redes digitais. É possível argumentar que a opacidade gerada pela sociedade digital é uma característica irredutível de sua complexidade. Nesse artigo supracitado, já havia mencionado o artigo seminal do sociólogo Niklas Luhmann que dizia que a opacidade é um efeito próprio de uma sociedade complexa e que sua distinção básica é a dualidade transparência/opacidade (Luhmann, 1997). Por exemplo, na arquitetura da IA generativa (LLM), há sempre uma “camada oculta” intermediária que não é acessível nem mesmo aos programadores. E além de opaca, a tecnologia de IA generativa não é rastreável, pois se trata de uma tecnologia “não trivial”. A não trivialidade significa justamente que o comportamento de um determinado sistema muda com o tempo e não é possível a partir da observação de um efeito determinar sua causa, não porque a causa não exista, mas por haver uma múltipla causalidade.
Assim, é preciso reconhecer que os algoritmos são uma das ferramentas para regular a complexidade e irredutibilidade da opacidade de sistemas não triviais. Em relação às mídias digitais plataformizadas, podemos fazer a seguinte hipótese: as mídias sociais representam a digitalização da forma social das fofocas (gossips). Segundo o antropólogo Robin Dunbar, as fofocas foram introduzidas socialmente pelas práticas de higiene coletiva (grooming) presentes em muitos primatas. Essas fofocas foram importantes para a própria construção simbólica da fala entre os hominídeos sapiens. Se de um lado as fofocas permitiram a coesão social de agrupamento, por outro elas também provocavam, por meio dos boatos, problemas de pânico coletivo, ou de conspirações sociais[2]. Assim, ocorreram desde sempre estratégias de controle social sobre o espalhamento das fofocas. Daí se diz que a fofoca é dita à boca pequena.
Em termos cibernéticos, o controle social realizado por um discurso oficial (mito), foi a estratégia de “feedback negativo” para inibir o feedback positivo (runaway) do espalhamento por contágio (boatos). Ora, esta estratégia funcionou por séculos em comunidades localizadas territorialmente, porém no contexto das mídias digitais, sua ubiquidade permite gerar os feedbacks positivos que a pesquisadora Ivana Bentes denominou de “enxameamentos". Assim, nas plataformas capitalistas das Big Techs, que se organizam para concentrar enorme volume de dados, os algoritmos se tornam uma ferramenta imprescindível, pois não há controles sociais territorializados. No entanto, como também observou Ivana Bentes, as reações nas mídias sociais são “moduladas” por esses algoritmos para produzir certos efeitos. As reações em redes sociais são amplificadas pela ação dos algoritmos das plataformas privadas que impulsionam temas controversos em busca da captura da atenção dos usuários, que é assim “mercadorizada” no modelo de capitalismo de plataforma (Srnicek, 2016). Nessas plataformas, os algoritmos utilizados são escritos em códigos proprietários e assim inacessíveis à compreensão dos usuários.
Assim, há um duplo problema. De um lado, é preciso tratar uma mídia baseada em redes digitais cuja complexidade produz opacidade como sua contraparte. Isso significa que sempre haverá “pontos cegos”, ou melhor dizendo, zonas cegas que não podem ser observadas. Os algoritmos são ferramentas para tratar dessa complexidade, mas como os próprios algoritmos são opacos (porque proprietários) eles acrescentam mais opacidade à rede. Isso já é um efeito evidenciado pela teoria cibernética de segunda ordem: o controle de um sistema acrescenta complexidade ao sistema e esta nova complexidade é incontrolável pelo sistema controlador[3]. Deste modo, os algoritmos escritos para a resolução de problemas tornam-se eles mesmos novos problemas. Isso demonstra a circularidade típica da arquitetura de redes complexas.
2.2 O BOM REGULADOR E A VARIEDADE REQUERIDA
A proposta deste artigo é refinar o conceito de “criptoanálise” lançado em artigo anterior (Preger, 2024). A criptoanálise foi definida como uma estratégia para tratar a opacidade irredutível das redes digitais complexas. Para isso usarei dois conceitos da cibernética: a lei da variedade requerida (requisite variety) e o teorema do bom regulador. A primeira foi proposta por W. Ross Ashby em seu seminal livro Introdução à Cibernética (1970). Ela diz simplesmente que um sistema só pode regular[4] outro sistema com variedade igual ou menor que a sua. A variedade aqui pode ser entendida como o número de variáveis essenciais independentes do sistema, ou a grandeza máxima dos seus graus de liberdade[5]. Assim, para regular um sistema de variedade muito grande e desconhecida é preciso selecionar uma amostra desse sistema, isto é, reduzi-lo a um sistema de variedade menor e conhecida. É este sistema reduzido que pode ser regulado e não o sistema maior[6].
O teorema do bom regulador foi proposto pelos pesquisadores Roger Conant e o próprio Ross Ashby num artigo famoso (1970). O título do artigo já explica sua proposição: “Todo Bom regulador deve ser um modelo do sistema que regula”. A Figura 1 ilustra a concepção do teorema. No diagrama, D são perturbações (disturbances) aleatórias, S é o sistema que se quer regular, R é o sistema regulador, φ é a função de acoplamento entre S e R, Z é o conjunto de todos os possíveis resultados (outputs) do acoplamento φ e G corresponde ao subconjunto “bom” (good) desses resultados, isto é, os resultados desejados do acoplamento. O que o teorema propõe é que quanto mais próximos dos resultados contidos em G são as saídas do acoplamento, melhor é o regulador. E o melhor regulador R serve como bom modelo de S.
Figura 1- Diagrama esquemático do funcionamento do bom regulador

Fonte: Wikipedia: https://en.wikipedia.org/wiki/Good_regulator_theorem).
O que este teorema implica é que embora nem sempre seja possível regular S pelo controle de suas variáveis (pois este possui variáveis ocultas e/ou independentes), é possível controlar o regulador R, que é um construto cujas variáveis são dependentes e conhecidas. No entanto, é preciso saber definir quais os efeitos contidos em G são realmente os resultados desejados. E a definição de G depende do propósito da regulação. Assim, é necessário construir R como um bom modelo de S segundo um propósito definido a priori. Um programa de R contém seu propósito definido.
2.3 A ESFERA PÚBLICA PLATAFORMIZADA
Tudo isso dito, é possível lançar a seguinte consideração: a de que o seminal conceito de Jürgen Habermas da esfera pública burguesa pode ser pensada como um regulador do sistema político (mas não de toda a sociedade)[7]. Lembrando que para além dos sistemas, em Habermas, há também o chamado “mundo da vida” (Lebenswelt), que não é regulado como um sistema. Este modelo, para ser um bom regulador, precisa se basear num diálogo de argumentação racional. A leitura que Habermas faz da esfera pública burguesa em suas crescentes deformações pode ser entendida como a transformação na qual ela se afasta de suas condições ideais, tornando-se gradativamente um mau modelo do sistema político e com isso corroendo sua capacidade de regulá-lo.
Por isso, é possível também entender o uso dos algoritmos nas mídias sociais plataformizadas como carregando maus modelos dessas redes e por isso permitindo todo tipo de equivocação[8], como fake news, teorias conspiratórias, controvérsias banais (tretas), movimentos de linchamento virtual ou cancelamento, boatos, enxames de dados, etc. Ou ainda, todas as estratégias de captura da atenção para fins de venda de espaço virtual publicitário. Ou, finalmente, a oculta monitoração da comunicação dos usuários para fins de perfilação de gostos, costumes ou posições políticas. Tudo isso entra como desinformação nas redes. No entanto, é possível imaginar que este efeito de equivocação, com toda “desordem informacional” (Dantas, 2024) que causa, seria precisamente o propósito específico perseguido pelos grupos de extrema-direita, com um programa de produção de anomia social. A extrema-direita usaria tais algoritmos não para regular a comunicação digital, mas para desregulá-la.
Isso nos revela que são os programas que devem ser o foco das estratégias de regulação das plataformas. Os algoritmos são simplesmente a codificação desses programas através de protocolos proprietários. Se os algoritmos são indevassáveis, os programas por sua vez podem ser desvelados pelos propósitos que carregam. E tais propósitos, mesmo que privados, são sempre objeto de deliberação. A regulação dos programas significa, no final das contas, a regulação dos algoritmos.
2.4 A CRIPTOANÁLISE COMO REGULAÇÃO REFLEXIVA
Além dos princípios da lei da variedade requerida e do bom regulador, é agora importante um terceiro princípio que, na verdade, é um corolário desses dois. Refiro-me ao famoso lema proposto por Alfred Korzybski de que “o mapa não é o território”[9]. Este lema foi retomado na obra de Gregory Bateson, Steps to an Ecology of Mind (2000 [1972]). Trata-se da ideia de não confundir a construção do mapa (do modelo) com a do território em si. Por exemplo, a sociedade (complexa e não trivial) não é descritível, mas seu modelo sim. Um bom mapa é um bom regulador do território. No entanto, de um território é possível retirar vários mapas, dependendo do propósito do observador. De uma cidade é possível traçar mapas sobre roteiros gastronômicos, culturais, históricos ou de seus atrativos naturais. Assim, um roteiro é exatamente o programa que orienta os interesses do observador visitante. Um território é, ao final, uma fonte de inumeráveis roteiros e mapas. Como diria Bateson, em linhas conhecidas.
We say the map is different from the territory. But what is the territory? Operationally, somebody went out with a retina or a measuring stick and made representations which were then put on paper. What is on the paper map is a representation of what was in the retinal representation of the man who made the map... The territory never gets in at all. Always, the process of representation will filter it out so that the mental world is only maps of maps, ad infinitum (Bateson, 2000, p. 460).
A relação mapa-território pode ser desdobrada infinitamente. Um mapa pode ser o território de outro mapa, assim como um regulador pode ser regulado por outro regulador. Trata-se de uma relação e não de duas entidades separadas. No entanto, é preciso ter em mente que os modelos (mapas) devem ser dinâmicos pois os territórios estão em permanente transformação e, portanto, a variável “tempo” deve ser considerada.
A deste artigo é justamente considerar a criptoanálise como uma regulação da regulação, ou uma regulação reflexiva. A regulação em si está sempre sendo também regulada. Em termos gerais, a criptoanálise objetiva regular a opacidade das redes, mas esta compõe uma relação dupla com aquilo que se manifesta. Na relação transparência/opacidade, o segundo termo é o “outro lado” do primeiro termo. Seguindo a obra de Niklas Luhmann, a transparência aparece como uma forma, enquanto seu outro lado se diz um meio (Medium)[10]. Como na relação figura/fundo[11], a opacidade é o meio com que uma forma se manifesta. A transparência deve ser observada sempre tendo a opacidade como seu pressuposto. Em Luhmann, no entanto, esta relação se complexifica, pois há a reentrada[12] da opacidade na transparência, ou do meio na forma. Esta reentrada sempre leva a um paradoxo. A criptoanálise deve ser o tratamento de tais paradoxos.
No caso em questão, os algoritmos são o meio com que um programa é implementado. Os algoritmos codificam o programa através de uma série de instruções. Os algoritmos podem ser opacos, mas o programa deve ser transparente. Por isso, a primeira estratégia de regulação das plataformas é a revelação de seu programa, pois ele será o objeto da regulação. Como mencionado, a regulação do programa deve significar a regulação dos algoritmos. Por sua vez, os algoritmos são os reguladores das redes digitais de usuários que se utilizam das plataformas. Estas últimas são o território que se quer regulado.
2.5 APARELHOS E PROGRAMAS
Em um livro, propus a noção de “aparelho” como o regulador dos sistemas funcionais (Preger, 2024a)[13]. O aparelho contém o programa do sistema. Este programa, para ser um bom regulador, deve conter uma representação do sistema (dita canônica), além dos critérios de atendimento à função do sistema, o que vem a ser seu propósito. Esses critérios definem o que é próprio ou impróprio ao sistema. Aquilo que é impróprio ao sistema é descartado como pertencente ao ambiente. Assim, a representação canônica é elaborada a partir do ponto de vista da funcionalidade do sistema. Para funcionalidades distintas, há representações distintas daquilo que é regulado. Portanto, para que haja uma boa regulação dos aparelhos deve haver a necessidade de revelação e apresentação dos seus programas. Isso acontece socialmente quando qualquer organização formal é obrigada a declarar a sua razão social.
Assim, no caso dos aparelhos serem as atuais plataformas, a primeira exigência legal é que se constituam como entidades jurídicas nacionais (CNPJ) nos países em que atuam para que possam ser corretamente tributadas e para que possam ser fiscalizadas. Nesse aspecto, a regulação social de uma plataforma não difere de qualquer outra empresa. A característica transnacional e virtual desses entes digitais não pode enganar o fato de que são empresas como quaisquer outras. Só dentro dessa estrita jurisdição nacional é que leis de privacidade de dados podem ser implementadas, bem como punidas as infrações dos códigos legais desse ou daquele país.
2.6 OS PROBLEMAS INDECIDÍVEIS
Entretanto, o maior problema da governamentalidade algorítmica está no fato de que nem todos os problemas são “algoritmizáveis”. Os algoritmos são conjuntos de instruções de programas para resolução de problemas. A resolução dos problemas se faz através de decisões. Porém, há problemas decidíveis ou indecidíveis. Um problema indecidível é aquele que não pode ser decidido a priori[14]. Na sua definição precisa, um problema indecidível é um problema de decisão em que é impossível construir um algoritmo que sempre responde corretamente sim ou não[15].
Assim, é impossível ter programas gerais o suficiente para a solução de todos problemas, pois sempre haverá aqueles indecidíveis. Na verdade, na sociabilidade humana, tais problemas são os mais frequentes. Problemas indecidíveis se manifestam socialmente geralmente através de paradoxos que são oscilações entre sim e não.
A generalização dos algoritmos para a solução de problemas sociais leva, portanto, a uma frequente equivocação. Essa equivocação frequente acaba por tornar os modelos cada vez mais imprecisos e, portanto, deixam de ser “bons reguladores”, pois sempre se equivocam. A funcionalização geral da sociedade com o uso cada vez maior de programação através de algoritmos esbarra num problema computacionalmente insolúvel. Uma ideia de democracia, como reguladora do sistema político ou de governo, deve levar em conta que a presença de paradoxos será constante.
3 CONCLUSÃO: A PRÁXIS DIALÓGICA E A DEMOCRACIA AGONÍSTICA
Em resumo, vimos que a ideia de democracia deliberativa em Habermas significa construir um bom regulador do sistema político (governo). Porém, a sistematização social através de plataformas programadas por algoritmos gera uma crescente opacidade. Um programa consiste no conjunto de premissas para as decisões dos algoritmos para fins da obtenção de determinados resultados. Para regular os algoritmos, a deliberação democrática deve focar nos programas e não nos algoritmos em si, pois estes codificam aqueles. A deliberação sobre os programas acaba por se tornar a regulação dos algoritmos.
Mas vimos também que a maior parte dos problemas sociais que exigem uma decisão política é do tipo indecidível e que não pode ser resolvida a priori (não pode ser programada). Para enfrentar esta questão temos que pensar em outro modelo.
Nossa proposta inicial é pensar a democracia como comunicação e, como tal, reguladora da política. A comunicação é precisamente a estratégia humana para regular uma relação social qualquer. Já no livro fundador da cibernética, Norbert Wiener (2017 [1948]) já equiparava a comunicação ao controle. Para ser uma boa reguladora do sistema político, a democracia deve se habilitar a resolver os problemas indecidíveis que não são por definição sujeitos à algoritmização.
No contexto brasileiro temos uma teoria apropriada para tratar desses problemas indecidíveis. É aquela proposta por Paulo Freire em seu clássico Pedagogia do Oprimido (2011[1968]) através da práxis dialógica (comunicacional). Nesta obra pedagógica, Freire aponta a necessidade de conhecer para agir na “situação concreta dos oprimidos”. Esta é uma estratégia necessária tanto para os educadores como para os líderes políticos, como Freire várias vezes enfatiza ao longo do livro. Isso significa realizar uma “investigação radical” tanto em relação aos temas quanto à problemática existencial dos oprimidos.
Como o educador potiguar deixa claro em sua magna obra, a situação concreta é marcada por um antagonismo opressor/oprimido que se reflete em duas perspectivas também opostas: as comunicações dialógica e a antidialógica. Portanto, a práxis dialógica não deve pressupõe a formação de consensos, como em Habermas, mas considera que o surgimento de conflitos faz parte da práxis. Os conflitos são manifestações da indecidibilidade de problemas sociais a partir de perspectivas antagônicas. Neste caso, uma “agonística social” dos conflitos faz parte da práxis dialógica que visa a resolução dos conflitos.
Em artigo anterior (PREGER, 2023), defendi a visão de Niklas Luhmann por uma definição de democracia que considere uma repartição antagônica do poder como meio simbólico. No caso, segundo o autor alemão, entre governo/oposição. Em meus próprios termos, entre governantes/governados, ou entre consentimento/contestação. Assim, para que seja uma boa reguladora da política, a democracia deve supor uma visão de partição antagônica do poder.
A agonística é um tipo de jogo (agon) que supõe a resolução de um conflito crucial. O jogo, por sua vez, é um tipo de comunicação lúdica (PREGER, 2024) que estabelece regras e estratégias. A regulação da agonística política exige a definição de regras claras e compartilhadas para a boa regulação dos problemas indecidíveis. Tais regras devem definir os limites internos (vínculos) e externos (enquadramentos) para o desdobramento do jogo político entre a necessidade e o acaso. No entanto, tais limites devem ser dinâmicos e devem ser redefinidos conforme se dá a práxis da agonística, isto é, seu jogo. Trata-se de um “jogo nômico”, como proposto pelo filósofo Peter Suber (1990) no qual as próprias regras do jogo são passíveis de transformação. Um jogo no qual se joga para mudar as regras do próprio jogo. Apenas dentro dessa perspectiva reflexiva, a democracia pode se tornar uma boa reguladora dos jogos de poder.
REFERÊNCIAS
BATESON, Gregory. Steps to an ecology of mind. The University of Chicago Press, 2000.
BENTES, Ivana. BENTES. Ivana. Só vim aqui para ler os comentários. In: JACINTO, José Brito; Acácio. (org.). Mídias educativas e Impacto Social. Rio de Janeiro: Mórula, 2024, v. , p. 262–276
CONANT, Roger; ASHBY, W. Ross. Every good regulator of a system must be a model of that system. Int. J. Systems Sci., 1970, vol. 1, No. 2, 89-97.
DANTAS, Marcos. A matemática da desordem informacional. Disponível em: https://aterraeredonda.com.br/a-matematica-da-desordem-informacional/, 2024. Acesso em: 24 out. 2024
DELEUZE, Gilles. Post-Scriptum sobre as Sociedades de Controle. L'Autre Journal, n. 1, maio de 1990.
FREIRE, Paulo. Pedagogia do oprimido. Rio de Janeiro, Paz e Terra, 2011.
HABERMAS, Jurgen. Reflections and hypotheses on a further structural transformation of the political public sphere. Theory, Culture & Society, Vol. 39(4) 145–171, 2022.
LUHMANN, Niklas. Sign as Form. Cybernetics & Human Knowing, August 1999.
LUHMANN, Niklas. The Control of Intransparency. SYST. RES. BEHAV. SCI. VOL. 14, 359–371 (1997). Disponível em https://www.academia.edu/4384022/Luhmann_Control_Of_Intransparency.
PREGER, Guilherme. A democracia segundo Niklas Luhmann. Logeion, 2023. Disponível em: https://www.academia.edu/123792917/A_democracia_segundo_Niklas_Luhmann.
PREGER, Guilherme. Criptoanálise: abrindo a caixa preta da inteligência artificial. Anais do XX Coloquio Habermas e XI Coloquio de Filosofia da Informação, 2024b. Disponível em: https://www.academia.edu/125686926/Criptoan%C3%A1lise_abrindo_a_caixa_preta_da_intelig%C3%AAncia_artificial.
PREGER, Guilherme. Teoria Geral dos Aparelhos: tratado de engenharia política. Ouro Preto, Caravana, 2024a.
ROSS, W. Ashby. Introdução à cibernética. São Paulo, ed. Perspectiva, 1970.
ROUVROY, Antoinette; ALVES, Marco Antonio. Governamentalidade algorítmica e a morte da política. Revista de Filosofia Moderna e Contemporânea, Issue: 3, Volume: 8, 2020. Disponível em: https://www.academia.edu/45031255/Governamentalidade_Algor%C3%ADtmica_e_a_Morte_da_Pol%C3%ADtica.
ROUVROY, Antoinette. Algorithmic realism: an eclipse of the common (draft, 2025) Disponível em: https://www.academia.edu/143208868/Algorithmic_Realism_An_Eclipse_of_the_Common_Draft?email_work_card=abstract-read-more.
SILVA, Artur Stamford da. 10 lições sobre Luhmann. Petrópolis: Vozes, 2016.
SRNICEK, Nick. Platform Capitalism. Cambridge: Polity Press, 2016.
SUBER, Peter. The paradox of self-amendment: a study of logic, law, omnipotence, and change (Peter Lang Publishing, 1990).
WIENER, Norbert. Cibernética ou controle e comunicação no animal e na máquina. São Paulo, Perspectiva, 2017.
[1] Doutor em Teoria da Literatura (UERJ)
[2] Ver o seguinte verbete na wikipedia sobre a hipótese de Dunbar: https://en.wikipedia.org/wiki/Grooming,_Gossip_and_the_Evolution_of_Language.
[3] É este dado que falta à teoria da “sociedade de controle” famosamente teorizada por Gilles Deleuze (1990): ele faz a crítica da cibernética de primeira ordem, que é de fato a cibernética de controle, porém não aborda a cibernética de segunda ordem que já havia observado como a tentativa de controlar um sistema produz mais complexidade incontrolável.
[4] Neste momento, o entendimento de “regular” é o mesmo de “controlar”, o que basicamente significa impor restrições aos graus de liberdade de um sistema, ou constranger um sistema reduzindo seus graus de liberdade.
[5] Grandeza conhecida como Hmax, ou entropia de Shannon (H) máxima do sistema.
[6] As variáveis que ficam de fora da regulação são desprezadas como irrelevantes ao propósito da regulação. Assim, toda a regulação serve a um propósito, sendo este que vai definir quais são as variáveis relevantes e as irrelevantes para a regulação.
[7] Sistema político aqui no sentido de sistema de governo.
[8] Equivocação (equivocation), termo aqui utilizado no sentido técnico proposto pela teoria matemática da comunicação de Claude Shannon como entropia condicional. Na lógica digital, por exemplo, dado que o receptor recebeu um “1”, a equivocação determina a probabilidade de ter sido emitido um “0”, e vice-versa. Esta possibilidade ocorre pela entrada do ruído na comunicação, que segundo Shannon, é uma característica irredutível de todo canal (veículo) de transmissão da informação.
[9] Para o rápido entendimento dessa relação ver o verbete da wikipédia https://en-wikipedia-org.translate.goog/wiki/Map%E2%80%93territory_relation?_x_tr_sl=en&_x_tr_tl=pt&_x_tr_hl=pt&_x_tr_pto=tc.
[10] Sobre a relação entre Forma e Meio (Medium) em Niklas Luhmann: Luhmann, 1999.
[11] A rigor, a distinção transparência/opacidade é homeomorfa em relação à distinção figura/fundo.
[12] Reentrada (re-entry) é um termo retirado por Luhmann da obra do engenheiro George Brown-Spencer. Reentrada é uma generalização do conceito de feedback. Significa que há sempre um retorno de uma distinção sobre si mesma, o que resulta numa reentrada do lado não marcado da distinção no lado marcado.
[13] Esta noção está ausente da obra de Niklas Luhmann, que considera que o sistema se autorregula. Porém, o aparelho é apenas o endereço responsável por essa autorregulação no interior do sistema e, portanto, um elemento do próprio sistema.
[14] Na teoria matemática este é conhecido como o Entscheidungsproblem, o problema da decisão.
[15] Consultar https://pt.wikipedia.org/wiki/Entscheidungsproblem. Alan Turing e Alonzo Church provaram a tese de que necessariamente haverá problemas indecidíveis, ou que não é possível decidir todo e qualquer problema a priori, isto é, através de programação.