NORMATIVIDADE ALGORÍTMICA E DOMINAÇÃO TECNOLÓGICA

desafios ético-jurídicos à autonomia e à liberdade em sistemas inteligentes

Eloisa Samy Santiago[1]

Universidade Federal do Rio de Janeiro

esamyrj@gmail.com

______________________________

Resumo

Este artigo examina criticamente os impactos éticos e jurídicos da normatividade algorítmica, especialmente no contexto de sistemas de Inteligência Artificial que operam com crescente autonomia, opacidade e capacidade de regulação informal. Parte-se da hipótese de que esses sistemas inauguram um regime concorrente ao Direito, reconfigurando relações de poder e afetando a autonomia dos sujeitos. Com base em uma abordagem sistêmica, relacional e ética, defende-se que a dominação exercida por algoritmos exige uma resposta normativa capaz de restabelecer condições equitativas de liberdade, participação e responsabilidade. Sustenta-se, por fim, a necessidade de instituir mecanismos regulatórios que enfrentem as formas tecnológicas de opressão e exclusão, reafirmando os compromissos democráticos diante da expansão dos sistemas inteligentes.

Palavras-chave: regulação da inteligência artificial; direitos fundamentais; risco sistêmico; princípio da não-dominação; autonomia informacional.

ALGORITHMIC NORMATIVITY AND TECHNOLOGICAL DOMINATION

ethical and legal challenges to autonomy and freedom in intelligent systems

Abstract

This article critically examines the ethical and legal impacts of algorithmic normativity, particularly in the context of Artificial Intelligence systems that operate with increasing autonomy, opacity, and informal regulatory capacity. It is based on the hypothesis that these systems establish a normative regime that competes with the law, reconfiguring power relations and affecting individual autonomy. Drawing on a systemic, relational, and ethical approach, the paper argues that the domination exerted by algorithms demands a normative response capable of restoring equitable conditions for freedom, participation, and accountability. Finally, it advocates for the creation of regulatory mechanisms capable of confronting technological forms of oppression and exclusion, thereby reaffirming democratic commitments in the face of the growing expansion of intelligent systems.

Keywords: artificial intelligence regulation; fundamental rights; systemic risk; principle of non-domination; informational autonomy.

NORMATIVIDAD ALGORÍTMICA Y DOMINACIÓN TECNOLÓGICA

retos éticos y jurídicos a la autonomía y la libertad en los sistemas inteligentes

Resumen

Este artículo analiza críticamente los impactos éticos y jurídicos de la normatividad algorítmica, en particular en el contexto de los sistemas de inteligencia artificial que operan con creciente autonomía, opacidad y capacidad regulatoria informal. Se parte de la hipótesis de que estos sistemas establecen un régimen normativo que compite con el derecho, reconfigurando las relaciones de poder y afectando la autonomía individual. Desde un enfoque sistémico, relacional y ético, se argumenta que la dominación ejercida por los algoritmos exige una respuesta normativa que restablezca condiciones equitativas para la libertad, la participación y la rendición de cuentas. Finalmente, se aboga por la creación de mecanismos regulatorios que confronten las formas de opresión y exclusión tecnológicas, reafirmando así los compromisos democráticos ante la creciente expansión de los sistemas inteligentes.

Palabras clave: regulación de la inteligencia artificial; derechos fundamentales; riesgo sistémico; principio de no dominación; autonomía informativa.

1 INTRODUÇÃO

Este artigo é derivado da dissertação de mestrado intitulada Avaliação de Impacto Algorítmico: Desafios Éticos e Jurídicos na Identificação e Mitigação do Viés de Gênero, defendida junto ao Programa de Pós-Graduação em Direito da Universidade Federal do Rio de Janeiro (UFRJ) em março de 2025, tendo como orientadora a Professora Daniela Silva Fontoura de Barcellos.

No desenvolvimento da pesquisa, a teoria dos sistemas sociais formulada por Niklas Luhmann constituiu o arcabouço teórico a partir do qual foi possível compreender os algoritmos como estruturas normativas autônomas, dotadas de lógica interna própria e capazes de acoplamento funcional com diferentes sistemas sociais. O ponto nevrálgico dessa elaboração não está apenas nos conceitos isolados (como autopoiese ou acoplamento estrutural), mas na forma como os sistemas sociais se comunicam (ou deixam de se comunicar) entre si.

A compreensão da normatividade algorítmica construída ao longo da pesquisa exigiu, além da descrição do funcionamento interno dos sistemas algorítmicos, a análise das formas pelas quais esses sistemas se relacionam com outros domínios funcionais da sociedade, notadamente o sistema jurídico.

Na teoria dos sistemas sociais de Luhmann, os sistemas operam de forma autopoiética e são estruturalmente fechados: produzem e reproduzem suas operações com base em seus próprios códigos binários e critérios internos de relevância. Contudo, essa autorreferencialidade não os torna isolados; os sistemas se relacionam entre si por meio de acoplamentos estruturais, nos quais há interdependência funcional, sem que se estabeleça uma linguagem comum ou uma operação comunicativa direta.

A análise buscou compreender justamente as consequências dessa condição: os sistemas podem afetar-se mutuamente, mas não se compreendem. A comunicação entre eles é sempre parcial, mediada por traduções internas, e atravessada por assimetrias estruturais. O sistema algorítmico pode incorporar exigências do sistema jurídico, respondendo à lógica da eficiência, mas não é capaz de traduzir integralmente as exigências normativas do sistema de proteção aos direitos humanos. Esse ruído estrutural, essa ausência de convergência semântica entre os sistemas, foi identificada na pesquisa como um dos principais fatores de produção de decisões algoritmicamente orientadas que escapam à responsabilização institucional.

Ao identificar esse fenômeno, a pesquisa demonstrou que a normatividade algorítmica não é apenas uma forma técnica de regulação, mas uma forma de deslocamento da normatividade propriamente dita para um campo estruturalmente insuscetível de crítica, de resposta e de responsabilização.

A presente versão objetiva aprofundar essa análise, voltada à reflexão teórica sobre os modos de regulação e dominação produzidos por sistemas algorítmicos de Inteligência Artificial.

Partindo da hipótese de que os algoritmos operam como mediadores de uma forma emergente de dominação tecnológica, o artigo sustenta que sua atuação não pode ser compreendida unicamente em termos instrumentais ou funcionais. Ao contrário, tais sistemas integram um regime normativo concorrente, que redefine os critérios de aceitabilidade, eficiência e decisão no interior dos sistemas sociais. Ao substituir critérios deliberativos por inferências estatísticas, tais dispositivos corroem os fundamentos da autonomia e da responsabilização jurídica, tensionando os limites da autoridade democrática.

Nesse contexto, propõe-se uma abordagem relacional e sistêmica da regulação tecnológica, capaz de articular a proteção dos direitos fundamentais com a exigência de um paradigma ético comprometido com a justiça, a transparência e a equidade. Trata-se de reconhecer que os riscos não se reduzem a falhas técnicas, mas se inscrevem em dinâmicas estruturais de exclusão, opressão e silenciamento. Defender a liberdade diante das novas formas de governança algorítmica exige, portanto, o enfrentamento da dominação que se realiza de modo difuso, silencioso e automatizado.

Ao longo do texto, serão explorados os conceitos de normatividade concorrente, risco sistêmico, dominação informacional e autonomia, com vistas a fundamentar a necessidade de um novo horizonte normativo capaz de reequilibrar as relações entre tecnologia, direito e democracia.

Dessa forma, a proposta deste artigo não é apenas descrever os riscos associados à Inteligência Artificial, mas problematizar as bases normativas a partir das quais esses riscos são compreendidos e enfrentados. Ao inscrever a discussão no campo da teoria crítica do Direito e da ética política, busca-se elaborar um marco conceitual capaz de compreender a Inteligência Artificial como agente produtor de normatividade, e não apenas como uma ferramenta regulável. Esse deslocamento epistemológico é decisivo para que se possa construir um modelo de regulação que discipline a tecnologia e a submeta a um projeto de justiça que tenha por centro a dignidade humana.

 

 

 

 

2 NORMATIVIDADE ALGORÍTMICA COMO FORMA DE PRODUÇÃO DE SENTIDO

A difusão acelerada de tecnologias baseadas em aprendizado de máquina instaura uma nova racionalidade funcional que se impõe à margem dos mecanismos jurídicos tradicionais. Essa normatividade algorítmica reorganiza decisões administrativas e produz efeitos estruturais sobre a liberdade individual, a participação política e a distribuição de poder.

Ao longo dos últimos anos, o debate jurídico em torno da regulação de tecnologias emergentes concentrou-se, em grande medida, na identificação de riscos e na proposição de instrumentos normativos capazes de mitigar externalidades negativas. No entanto, esse enfoque, embora necessário, mostra-se insuficiente para apreender a dimensão estrutural do fenômeno algorítmico. Os sistemas inteligentes não apenas executam decisões, mas transformam os próprios critérios segundo os quais as decisões são tomadas, o que gera uma inflexão ontológica na compreensão da autoridade normativa.

Em vez de depender de estruturas jurídicas previamente estabelecidas, os algoritmos produzem efeitos vinculantes por meio da modelagem estatística de comportamentos, da previsão de padrões e da construção de métricas de desempenho que retroalimentam sua própria lógica de funcionamento (Zuboff, 2021). O resultado é a constituição de um campo normativo que, embora desvinculado da legalidade formal, orienta condutas, condiciona escolhas e determina resultados com força prescritiva (Teles, 2020).

Essa normatividade de base técnica desafia diretamente a legitimidade democrática dos processos decisórios e reconfigura os limites do que se compreende por Direito, por regulação e por justiça. Nesse passo, torna-se necessário questionar em que medida as categorias tradicionais do pensamento jurídico e político ainda são capazes de oferecer resistência às novas formas de poder que se exercem por meio da linguagem computacional.

A operacionalidade dos algoritmos incorpora formas de racionalidade que deslocam o papel do sujeito de direito e esvaziam a centralidade da deliberação como fundamento da legitimidade. A substituição do juízo por predição, da argumentação por cálculo, representa, nesse sentido, uma mutação antropológica, e não apenas técnica.

É precisamente diante dessa reconfiguração silenciosa das estruturas de poder que se impõe uma agenda normativa centrada na noção de não-dominação, entendida como a recusa à sujeição invisível a formas arbitrárias de controle. Essa concepção, que excede a ideia de liberdade como mera ausência de interferência, exige o reconhecimento de que o poder algorítmico atua muitas vezes sem violência, sem imposição e sem notificação, mas com efeitos profundos sobre a autodeterminação dos indivíduos (Han, 2018) e a integridade dos processos democráticos. A dominação tecnológica, portanto, não se mede por atos de força, mas por estruturas de dependência que interditam o exercício pleno da autonomia.

Assim como a ignorância pluralística distorce a percepção de um consenso social, a dominação também distorce a percepção da liberdade. Quando as condições de comunicação e os meios de difusão de informações não são adequadamente geridos, há uma tendência a promover uma aceitação superficial e inconsciente de normas e valores, que podem esconder uma real falta de liberdade e compreensão. Em outras palavras, a aceleração do tempo e a forma como as informações são compartilhadas e aceitas na sociedade podem ser comparáveis aos mecanismos de dominação, onde o verdadeiro entendimento e a autonomia ficam comprometidos.

Os algoritmos, ao funcionarem como mecanismos de controle (seja por meio de comunicação ou por dominação social), afetam a liberdade e autonomia dos indivíduos, limitando sua capacidade de agir conforme suas próprias escolhas, além de criar uma aparência de harmonia ou consenso que, na realidade, esconde desigualdades e distorções (Santiago, 2025, p. 97).

A consolidação dos algoritmos como mediadores das interações sociais e institucionais revela uma inflexão profunda no modo como se produz, comunica e legitima a normatividade na sociedade contemporânea. Ao organizar dados, interpretar padrões e operar decisões com base em critérios estatísticos e lógicas matemáticas, os sistemas algorítmicos inauguram um regime de regulação funcional que prescinde da positivação jurídica tradicional para produzir efeitos normativos concretos. Embora distintos das normas jurídicas formais, os algoritmos participam ativamente da construção de expectativas comportamentais, da padronização de condutas e da delimitação do possível.

É nesse ponto que se insere o conceito de “ignorância pluralística” (Luhmann, 2006, p. 155-156). O que se observa é uma forma de descoordenação entre sistemas que atuam de maneira paralela, mas desconectada em termos normativos. Cada sistema supõe que outro será o responsável por conferir legitimidade à decisão final. O sistema algorítmico opera como se sua decisão já estivesse juridicamente autorizada. O sistema jurídico, por sua vez, parte do pressuposto de que houve uma validação técnica legítima e de que a neutralidade funcional do procedimento basta para justificar seus efeitos. No fim das contas, nenhum deles assume, de fato, o encargo de atribuir sentido normativo à decisão. É nesse vazio que surge o fenômeno, o qual passa-se a denominar de ignorância pluralística sistêmica: uma falha de responsabilização que permite que decisões com impacto real - que incluem ou excluem, concedem ou negam, impõem ou restringem - sejam tomadas sem que se possa identificar com clareza quem responde por elas dentro da rede de sistemas que as produziram.

Tal ignorância não é fruto de negligência individual, mas de uma configuração estrutural em que os acoplamentos entre sistemas se dão de forma funcional, mas não comunicacional. O algoritmo, desse modo, torna-se uma instância de decisão que transita entre sistemas sem se submeter aos códigos normativos de nenhum deles, funcionando como operador intersistêmico, mas sem accountability nem legitimidade. É precisamente essa posição híbrida que potencializa sua eficácia normativa, ao mesmo tempo que esvazia os fundamentos da responsabilidade institucional e jurídica.

A normatividade algorítmica não se manifesta por meio de regras escritas e publicamente debatidas, mas pela codificação técnica de parâmetros, pesos, hierarquias e filtros que orientam decisões automatizadas, reproduzindo racionalidades inscritas no próprio processo de modelagem. A autoridade atribuída aos algoritmos decorre menos de seu estatuto institucional e mais da credibilidade funcional de suas operações, isto é, da capacidade de prever, classificar e agir com base em padrões extraídos de grandes volumes de dados. Assim, constrói-se uma normatividade concorrente, que disputa legitimidade com as formas tradicionais de autoridade normativa, incluindo o Direito.

Diante dessas considerações, podemos dizer que a Inteligência Artificial, como um sistema tecnológico, introduz uma nova forma de comunicação e de normatividade que não se alinham perfeitamente com as estruturas de poder ou com as lógicas sociais já estabelecidas, gerando novas dinâmicas de poder e controle com algoritmos que funcionam de forma dispersa e que podem escapar às normas e aos códigos sociais existentes, criando uma contingência complexa e imprevisível, amplificando os riscos de abuso, exclusão e violação de direitos, enquanto, ao mesmo tempo, contribuem para uma sensação de “ignorância pluralística”, onde as pessoas acreditam que possuem algum grau de controle ou compreensão sobre essas tecnologias, quando, na realidade, há uma grande incerteza e um distanciamento do entendimento real de como elas funcionam e afetam a sociedade. (Santiago, Op. cit., p. 95).

O aspecto mais inquietante dessa dinâmica é a opacidade dos algoritmos. Nos sistemas de Inteligência Artificial, o código que executa tarefas está separado do conhecimento que o alimenta. É essa distinção que torna seus processos internos difíceis de compreender. O algoritmo segue instruções contidas no código, mas as informações que usa para tomar decisões não são visíveis ou acessíveis diretamente. Assim, os mecanismos e regras que orientam seu funcionamento permanecem ocultos, impossibilitando uma leitura clara de como suas decisões são efetivamente produzidas (Santiago, Op. Cit., p. 53-54).

A normatividade algorítmica permanece majoritariamente invisível: sua lógica não é acessível ao público, seus critérios decisórios escapam ao controle dos afetados, e seus efeitos são frequentemente naturalizados como consequência “neutra” de uma suposta objetividade técnica. Essa opacidade gera uma assimetria radical entre quem projeta, controla e monetiza os sistemas - geralmente grandes corporações tecnológicas - e os sujeitos sobre os quais tais sistemas incidem. Por meio dessa atuação invisível e generalizada, os algoritmos reconfiguram a distribuição do poder normativo na sociedade, deslocando-o das instituições públicas para arquiteturas computacionais privadas (Aneesh, 2002), não sujeitas aos mesmos critérios de responsabilização.

Sua operação traduz complexidade em decisões e reduz incerteza por meio de predições, participando assim da produção da realidade social. Observa-se, nesse processo, o surgimento de um novo regime de significação, no qual as fronteiras entre decisão humana e decisão algorítmica tornam-se tênues, e em que a normatividade deixa de ser produto de deliberação para converter-se em derivado técnico de sistemas computacionais.

A teoria dos sistemas sociais de Luhmann aponta que, na ausência de fundamentos normativos universais, o Direito passou a desempenhar uma função estruturante na sociedade moderna, oferecendo referenciais mínimos para a coordenação entre sistemas funcionalmente diferenciados. Em particular, os direitos fundamentais não apenas limitam o poder, mas operam como garantias da diferenciação funcional (Campos, 2022) ao assegurar que nenhum sistema ultrapasse os limites de sua própria racionalidade e interfira indevidamente no funcionamento de outros. Nessa chave, é possível compreender que os algoritmos, ao se integrarem aos processos comunicativos de múltiplos sistemas sociais, também deixam de ser meros instrumentos regulatórios para se tornarem operadores de sentido, capazes de moldar seleções, estruturar expectativas e influenciar, de dentro, a dinâmica autopoiética da sociedade funcionalmente diferenciada.

A normatividade algorítmica não atua no vazio institucional. Ela incide sobre estruturas já marcadas por desigualdades históricas e assimetrias de poder. Ao depender da coleta e interpretação de dados passados, os algoritmos frequentemente reproduzem e ampliam preconceitos, estereótipos e exclusões, reforçando padrões discriminatórios sob a aparência de neutralidade estatística (Santiago, Op. cit., p. 58-78).

Essa retroalimentação transforma o risco técnico em risco político, uma vez que a naturalização das decisões algorítmicas obscurece as escolhas valorativas que orientaram sua construção. Por essa razão, é insuficiente tratar os algoritmos como simples instrumentos ou ferramentas subordinadas à vontade humana. A normatividade que deles emana deve ser compreendida como forma autônoma de produção de sentido, capaz de redefinir práticas sociais, interferir em trajetórias individuais e condicionar os próprios critérios de justiça. A Inteligência Artificial, nesse contexto, não apenas processa informações, ela participa ativamente da constituição do mundo social, convertendo estatísticas em prescrições e previsões em comandos silenciosos.

A teoria da autopoiese concebe o sentido não como algo dado ou exterior às operações do sistema, mas como um produto que só existe no exato momento em que é produzido por essas mesmas operações. O sentido não antecede nem sucede o agir sistêmico: ele surge no próprio ato de distinção e seleção (Luhmann, 2006, p. 27-28).

Tal dinâmica reforça a distinção entre sistemas autopoiéticos e seus ambientes, pois evidencia que a autorreferência não é um traço secundário, mas o núcleo do funcionamento sistêmico. Assim, quando algoritmos internalizam padrões decisórios e passam a estruturar suas operações com base em ciclos de retroalimentação, deixam de ser meras ferramentas técnicas e passam a espelhar a lógica dos sistemas sociais: operam com fechamento operacional, produzindo suas próprias estruturas internas, ainda que em constante exposição às perturbações do ambiente.

Assim como os sistemas sociais constroem suas próprias regras a partir de suas operações internas, os sistemas algorítmicos também ajustam seus parâmetros de decisão com base nas respostas que recebem do ambiente. No entanto, eles não participam diretamente desse ambiente porque não possuem consciência ou experiência própria: processam informações e detectam padrões, mas não vivenciam o mundo nem têm intencionalidade.

Esse processo é chamado de acoplamento estrutural: o sistema algorítmico não se limita a reagir ao mundo social, mas, ao influenciar indiretamente suas dinâmicas, passa a participar ativamente de sua organização. Todavia, diferentemente dos sistemas sociais, que operam mediante códigos normativos construídos historicamente e mediados por linguagem, os algoritmos processam essas respostas de forma estatística e probabilística, o que pode levar à consolidação acrítica de padrões preexistentes - inclusive discriminações estruturais - sob a aparência de neutralidade técnica.

Compreender a normatividade algorítmica como forma de produção de sentido exige abandonar o paradigma da neutralidade técnica e reconhecer a centralidade dos algoritmos como atores normativos emergentes, cuja atuação afeta profundamente as condições de autonomia, responsabilidade e legitimidade no mundo contemporâneo.

Contudo, não basta questionar se os algoritmos produzem normatividade e sim quais formas de sentido produzem, sob quais condições e com quais implicações para o Direito e para a democracia.

A crítica à normatividade algorítmica não pode se limitar à formulação de normas específicas para “regular a tecnologia”. É necessário reconhecer que o Direito está sendo reconfigurado a partir de fora, por estruturas que não respondem a seus códigos internos nem às suas lógicas de legitimação. A tarefa reside em reconstruir os fundamentos da regulação a partir de análise crítica das transformações sociotécnicas em curso.

 

3 A COLONIZAÇÃO DIGITAL DO MUNDO DA VIDA

A denúncia de Habermas acerca da colonização do mundo da vida pelos imperativos sistêmicos permanece entre os diagnósticos mais instigantes da teoria social contemporânea. Todavia, transportá-la ao campo algorítmico não pode significar simples analogia, o cenário atual não reflete a mesma lógica de submissão burocrática ou econômica; trata-se de sua metamorfose técnica. O controle sobre a vida social se exerce por um movimento de cooptação que envolve o próprio sujeito, agora convertido em colaborador entusiasmado de sua própria sujeição.

Nesse arranjo inédito, não se observa apenas a penetração do sistema no mundo da vida, mas sua inversão estrutural. Os elementos que antes sustentavam a autonomia - linguagem, comunicação e reconhecimento mútuo - passam a constituir matéria-prima da dominação. O espaço interativo, outrora gerador de significados, converte-se em fonte de dados, destituídos de contexto e reelaborados em modelos preditivos. Estes, por sua vez, retornam ao cotidiano na forma de recomendações, filtros e exclusões. Já não se trata de uma economia colonizando o social, mas de um dispositivo algorítmico que se nutre da própria vida para reproduzir-se, instaurando uma lógica de predatismo.

O resultado é uma distorção da intersubjetividade. Tudo aquilo que nasce do intercâmbio comunicativo (afetos, opiniões, desejos) é apropriado como capital informacional, mercantilizado e restituído ao indivíduo sob a forma de um reflexo deformado: uma identidade estatisticamente modelada, alheia à compreensão autêntica. A dominação já não se exerce do lado de fora; opera no interior do sujeito, que passa a ser reconfigurado por sistemas que prometem liberdade de escolha, ao mesmo tempo em que delimitam, em tempo real, o horizonte de possibilidades.

É nesse ponto que a crítica habermasiana requer uma atualização ontológica. O receio inicial de que a racionalidade instrumental corroesse a esfera comunicativa revela-se insuficiente diante do risco atual: a própria comunicação passa a ser capturada como procedimento técnico. As redes não se apresentam apenas como meios de interação, mas como dispositivos de programação comportamental. A linguagem deixa de ser expressão emancipatória e converte-se em fonte de monitoramento; a intersubjetividade, degrada-se em banco de dados destinado ao treinamento da inteligência artificial.

Essa dinâmica pode ser descrita como uma colonização por absorção. Diferente da burocracia, que impunha normas universais e impessoais, os algoritmos atuam por diferenciação hiperindividualizada, oferecendo ao usuário uma experiência particularizada, ajustada às suas preferências, mas orientada a ampliar sua previsibilidade. A promessa de liberdade, então, se revela paradoxal: ela surge justamente no instante em que a autonomia do usuário é mais profundamente comprometida. Ao oferecer escolhas “personalizadas” e experiências aparentemente espontâneas, o sistema cria a ilusão de controle, enquanto, na realidade, suas decisões e comportamentos estão moldados e orientados pelos parâmetros do algoritmo. Quanto mais o usuário acredita estar livre para escolher, mais seu comportamento é previsto e guiado, mostrando que a liberdade percebida é superficial, uma fachada construída sobre uma intervenção invisível e estruturante.

A separação habermasiana entre mundo da vida (Lebenswelt) e sistemas não deve ser entendida apenas como expediente teórico. Desenvolvida em Teoria do Agir Comunicativo (Habermas, 2022) e posteriormente aprofundada em O Pensamento Pós-metafísico (Habermas, 1990) e Facticidade e Validade (Habermas, 2021), ela constitui um verdadeiro diagnóstico político das forças que comprometem a reprodução simbólica da modernidade.

Esse domínio desnaturaliza o horizonte compartilhado de significados, tradições, normas e práticas que permite aos indivíduos compreender-se mutuamente, orientar condutas por meio da linguagem e assegurar a continuidade cultural da sociedade. Nele se realiza a ação comunicativa, entendida como forma de coordenação social fundada no entendimento recíproco e na aceitação racional de normas, não em imposições externas nem em cálculos utilitaristas.

O mundo da vida estrutura-se em três dimensões: cultura (significados coletivos), sociedade (vínculos normativos) e personalidade (autonomia individual). Neste âmbito floresce a racionalidade comunicativa, garantindo coesão social mediante compreensão dialógica. Em contraste, os sistemas - político, econômico, jurídico - funcionam a partir de lógicas instrumentais, sustentadas pelo poder e pelo dinheiro. Diferenciados funcionalmente, esses sistemas adquirem autonomia em relação ao consenso social, pois o dinheiro e o poder são meios de ação que permitem coordenar comportamentos sem que seja necessário alcançar um entendimento. A racionalidade que os orienta é de caráter instrumental, voltada à eficiência, à previsibilidade e à maximização de resultados, sem consideração necessária ao conteúdo normativo das ações. O ponto de tensão surge quando tais sistemas, ao expandirem seu alcance, passam a invadir o mundo da vida, substituindo a ação comunicativa por mecanismos de controle e regulação externa. Habermas denomina esse fenômeno de “colonização do mundo da vida”.

Assim como o mundo da vida constitui um pano de fundo comunicativo continuamente reproduzido através da ação comunicativa, os algoritmos e dados representam cristalizações técnicas do conhecimento intersubjetivamente produzido. A privatização destes recursos coletivos representa, portanto, uma forma particularmente aguda daquilo que Habermas identifica como a “colonização do mundo da vida por imperativos sistêmicos”, subvertendo sua natureza comunicativa em função de finalidades instrumentais. Esta colonização algorítmica manifesta-se de modo particularmente insidioso no que podemos denominar como uma instrumentalização da intersubjetividade, onde as trocas comunicativas são progressivamente modeladas segundo parâmetros quantificáveis e mensuráveis (visualizações, cliques, tempo de engajamento) que expressam uma redução da racionalidade comunicativa à sua dimensão estratégica. O diagnóstico habermasiano sobre a burocratização do mundo da vida encontra, assim, seu correlato digital na algoritmização das relações sociais, configurando o que poderíamos chamar de uma razão algorítmica que, embora aparentemente neutra e objetiva, incorpora e amplifica vieses sociais preexistentes, reforçando desigualdades estruturais sob o véu da imparcialidade técnica.

O que vivemos hoje não é apenas uma continuação da velha lógica de dominação econômica ou burocrática, é algo novo: uma colonização que se dá no plano digital e algorítmico. Diferente das formas anteriores, esse tipo de controle penetra na própria maneira como cada pessoa se forma, atingindo o coração da nossa vida em comum.

As inteligências artificiais já estão dentro da esfera pública - espaço que, para Habermas, deveria ser o lugar do debate democrático, da crítica ao poder e da formação da vontade coletiva. Só que agora ela é moldada por algoritmos que decidem o que aparece, o que é silenciado e o que ganha destaque. E essa decisão não é guiada pela busca da verdade ou pela justiça, mas por métricas de engajamento e monetização. A opinião pública, antes fruto da deliberação, passa a ser induzida por recomendações automáticas, que muitas vezes amplificam polarizações e espalham desinformação.

Nesse processo, algo fundamental se inverte: o que antes sustentava a vida em comum - a linguagem, o reconhecimento mútuo, a troca simbólica - passa a ser explorado como matéria-prima para prever comportamentos. Cada clique, cada pausa, cada rolagem de tela vira dado, arrancado de seu contexto e reinserido em modelos estatísticos cujo objetivo não é a compreensão, mas o controle.

A comunicação, que deveria ser espaço de liberdade, torna-se um campo de vigilância preditiva. Shoshana Zuboff (2021) chama isso de “capitalismo de vigilância”. Mas o que acontece vai além da economia: trata-se de uma forma de dominação que nos absorve por dentro, transformando nossa própria subjetividade em algo calculado, moldado por correlações estatísticas. E há uma diferença essencial: essa colonização não se impõe pela força, mas pelo desejo. Ninguém é obrigado a se conectar, nós queremos estar conectados. A dominação, assim, se infiltra como sedução, como personalização, como recompensa imediata. Parece liberdade, mas no fundo corrói nossa autonomia comunicativa (Santiago, Op. cit., p. 39-42). Por isso, a resposta não pode ser apenas jurídica, no sentido tradicional. O direito precisa se reinventar como força crítica, não só para regular o uso de dados, mas para proteger o que temos de mais irredutível: o direito de ser compreendido, não apenas previsto; de ser reconhecido, não classificado; de ser livre, e não modelado.

A chamada autonomia informacional não pode ser reduzida a permitir ou negar acesso a dados. Ela precisa ser elevada a um novo patamar: o de condição essencial da liberdade contemporânea.

 

4 AUTORIDADE ALGORÍTMICA E O DESAFIO DA RESPONSABILIDADE JURÍDICA

O surgimento de sistemas algorítmicos como instâncias de decisão social rompe o monopólio normativo do direito e compromete seu fundamento mais elementar: a exigência de um sujeito responsável pelas decisões. Estamos diante não de uma mera concorrência entre normas, mas de um fenômeno mais radical: o surgimento de uma normatividade autônoma paralela e irresponsável; uma forma de poder que decide, classifica, exclui e pune, mas que não pode ser chamada a prestar contas, porque não é pessoa, nem instituição, nem Estado; é um sistema técnico autorreferente, cuja lógica escapa à racionalidade comunicativa e à possibilidade de justificação.

Na teoria de Niklas Luhmann (2006), o direito constitui-se como um sistema autopoiético que se mantém por meio da distinção entre lícito/ilícito. Sua autopoiese assegura autonomia funcional, permitindo que valide normas a partir de suas próprias operações. Contudo, o direito interage continuamente com outros sistemas sociais - político, econômico e, agora, técnico. Daí decorre a normatividade concorrente e/ou paralela, com a produção de efeitos normativos por sistemas que seguem critérios próprios, como eficiência, previsibilidade e correlação estatística.

A lógica algorítmica difere da jurídica em sua essência. Enquanto o direito opera pela justificação, pela argumentação e pela responsabilidade, o algoritmo decide por execução, otimizando funções de custo. Obedece-se ao algoritmo não por convicção ou legitimidade, mas por sua imposição técnica. Como resultado, instala-se um regime de autoridade tecnologicamente codificada, cuja força repousa no funcionamento, e não no reconhecimento.

Esse quadro dissolve a responsabilidade. Quando um erro ocorre, a responsabilidade se dispersa entre programadores, operadores e usuários. Muitas vezes, o resultado é a ausência de responsáveis identificáveis, um vazio que compromete a própria ideia de cidadania e de sujeito de direitos. O risco não se limita a falhas técnicas, alcançando a dimensão constitucional ao comprometer a possibilidade de justiça.

Nesse vácuo de responsabilidade, configura-se um risco sistêmico constitucional de elevada gravidade que atinge a própria possibilidade de justiça. Quando decisões com impacto direto sobre direitos fundamentais - liberdade, igualdade, dignidade - são determinadas por sistemas opacos, inquestionáveis e desprovidos de justificativa, o direito perde sua função crítica. Ele deixa de atuar como instrumento de correção social e se converte em um apêndice executivo da máquina, subordinado à lógica algorítmica de execução, previsibilidade e eficiência.

Diante desse impasse, o direito precisa reinventar-se como instância de crítica epistêmica, capaz de traduzir a lógica técnica em linguagem jurídica e de tornar as decisões algorítmicas passíveis de contestação. A normatividade algorítmica faz parte da modernidade técnica, mas não pode assumir primazia soberana.

A normatividade algorítmica também cria camadas de poder invisíveis ao organizar comportamentos, define padrões implícitos sobre o que é normal, desejável ou aceitável. Esse poder silencioso desloca a autoridade da esfera pública, transformando a execução automática de regras em norma tácita, sem espaço para debate ou compreensão coletiva. Por isso, a autonomia informacional deve se tornar princípio central da liberdade contemporânea.

O conceito de autonomia informacional deve ir além do direito de acessar, corrigir ou excluir dados. Ele representa um direito à integridade da própria subjetividade, um escudo contra a colonização algorítmica da identidade e um princípio que garante ao indivíduo o poder de decidir sobre a própria constituição em um mundo mediado por sistemas inteligentes.

A Constituição brasileira, no art. 5º, inciso X, protege a intimidade, a vida privada, a honra e a imagem. O Marco Civil da Internet (Lei nº 12.965/2014) e a LGPD (Lei nº 13.709/2018) ampliaram essa proteção ao prever direitos de acesso, consentimento e portabilidade de dados. Mesmo assim, essas normas ainda operam sob um paradigma defensivo, tratando os dados como simples bens a proteger, e não como expressões da vida social e da subjetividade.

É necessário avançar para um paradigma ativo de autonomia. A autonomia informacional não pode se limitar a resistir às invasões; ela deve permitir intervir nos processos que nos constituem. Significa compreender, contestar, modificar e, quando preciso, recusar os modelos que nos representam, nos classificam e preveem nossos comportamentos. É, em suma, um direito à autonomia informacional plena, capaz de resguardar a liberdade de ser e de se tornar sujeito em sua própria dimensão.

 

5 A REIFICAÇÃO ALGORÍTMICA: O COLAPSO DO RECONHECIMENTO INTERSUBJETIVO

A colonização do mundo da vida por sistemas - econômicos, políticos e, de modo particular, algorítmicos - assume uma dimensão ética e moral inédita quando examinada à luz da teoria do reconhecimento de Axel Honneth.

Se Habermas já alertava para os riscos da infiltração de imperativos sistêmicos na esfera comunicativa, Honneth amplia a análise, mostrando que tais invasões corroem os vínculos de reconhecimento que estruturam a identidade moral do indivíduo e sustentam sua liberdade.

A subjetividade repousa sobre três dimensões de reconhecimento: a afetiva, que fundamenta a autoestima; a jurídica, que garante autonomia e responsabilidade; e a social, que valida o orgulho moral associado às contribuições singulares do indivíduo à comunidade.

Na obra A Luta por Reconhecimento (2011), Axel Honneth propõe uma teoria que entende o reconhecimento social como fundamento da identidade e da vida moral. Inspirado em Hegel, Marx e outros filósofos, sustenta que a moralidade não se forma isoladamente, mas na relação recíproca entre sujeitos, sendo o reconhecimento mútuo condição essencial para a identidade ética.

Segundo Honneth, as pessoas podem incorrer em um agir reificante quando deixam de perceber o reconhecimento originário, seja porque orientam suas condutas por um sistema ideológico de convicções reificantes que os força a negar posteriormente tal reconhecimento, seja porque participam de uma práxis social em que a simples observação do outro passa a ser tomada como finalidade em si, eliminando a consciência do vínculo existencial próprio da socialização precedente (Honneth, 2018, p. 137).

Os sistemas algorítmicos interferem diretamente nesse núcleo, promovendo uma reificação do sujeito moral. Honneth esclarece que reificação não significa transformar o ser humano em coisa, mas sim obscurecer a dimensão intersubjetiva que confere sentido ético à ação, fazendo com que o indivíduo deixe de perceber suas escolhas, atitudes e relações como manifestações de um eu moralmente constituído. No plano afetivo, vínculos de cuidado, amizade e amor são transformados em dados quantificáveis. Relações antes baseadas em confiança e reconhecimento passam a ser avaliadas por algoritmos de engajamento, convertendo o outro em “nó” previsível de interação e o sujeito em elemento instrumental de um sistema que prescinde da ética e da reciprocidade.

Juridicamente, o indivíduo reduz-se a uma variável preditiva. O direito é substituído por caixas-pretas que executam decisões sem argumentação normativa, corroendo a autonomia e a responsabilidade. A autonomia sobrevive como aparência; o sujeito acredita deliberar, mas já se encontra integrado ao cálculo do sistema. Nesse contexto, a responsabilidade se dispersa entre programadores, operadores e usuários, fenômeno descrito por TELES (Op. cit.) como uma dissolução da cidadania, em que o sujeito de direitos e deveres se fragmenta em funções técnicas e abstratas.

No plano social, o reconhecimento também se desfaz. Trabalho, criatividade e esforço são convertidos em métricas de desempenho e previsibilidade. O indivíduo deixa de ser valorizado por sua singularidade e ética, passando a ser avaliado segundo critérios algorítmicos, tornando-se um sujeito moral reificado, cujo valor ético é subordinado à eficiência sistêmica. A solidariedade, que deveria emergir do reconhecimento recíproco e da interdependência, dá lugar à competição algorítmica, reduzindo a experiência social a um fluxo de desempenho mensurável. Portanto, essa transformação não ocorre apenas no plano individual, mas no nível estrutural da reprodução social.

Esse fenômeno configura um risco sistêmico constitucional de natureza ética e jurídica em que decisões automatizadas, opacas e de desresponsabilização, impactam diretamente direitos fundamentais, corroendo a liberdade, a igualdade e a dignidade. O direito perde sua função crítica e emancipatória, transformando-se em extensão da máquina, incapaz de restaurar os vínculos intersubjetivos essenciais à constituição do sujeito moral. Nesse sentido, a colonização do mundo da vida pelos sistemas algorítmicos representa uma erosão da própria condição ética do indivíduo, comprometendo a autonomia moral, a legitimidade da ação e a capacidade do direito de questionar, justificar e corrigir as normas que estruturam a vida coletiva.

Os algoritmos são frequentemente apresentados como ferramentas objetivas, livres de preconceitos, quando, na verdade, incorporam decisões axiológicas, hierarquias de relevância e vieses estruturais, muitas vezes ocultos em caixas-pretas inacessíveis. A chamada “governança por dados” acaba por substituir o debate democrático, fundado na argumentação, na contestação e no reconhecimento mútuo, por uma governança por previsibilidade, onde as decisões são tomadas com base em correlações estatísticas, não em justificativas racionais.

O conceito de reconhecimento torna-se, então, uma chave indispensável para repensar a relação entre tecnologia e dignidade. A autonomia não surge no vácuo, mas em redes de reconhecimento que validam o indivíduo como sujeito de direitos e portador de valor moral.

A busca por reconhecimento, tanto em nível pessoal quanto social, é postulada por Honneth como um motivador fundamental para a ação humana e a construção da autoimagem.

Quando essas redes são substituídas por arquiteturas de reconhecimento algorítmico - que validam apenas o que é compatível com o perfil, o engajamento ou a eficiência -, a própria possibilidade de desenvolvimento moral e identitário é comprometida. O indivíduo é, assim, despojado de sua capacidade de negar, resistir ou transformar as representações que sobre ele são feitas, sendo confinado a uma identidade predeterminada.

Diante disso, a exigência de autonomia informacional - enquanto direito de compreensão, controle e participação ativa nos processos que geram e utilizam dados pessoais - aparece como uma condição necessária para a preservação do mundo da vida. No entanto, essa autonomia não pode ser compreendida de forma individualista ou meramente defensiva. Ela exige uma dimensão coletiva e institucional: o acesso a modelos, a explicabilidade de decisões, a contestação algorítmica e a participação na governança de sistemas inteligentes.

Em última instância, a crítica à reificação algorítmica não se esgota na denúncia de seus efeitos, mas aponta para a necessidade de uma ressignificação do direito em face da Inteligência Artificial. O direito não pode ser reduzido a um conjunto de normas aplicadas a comportamentos, devendo assumir seu papel constitutivo na preservação da intersubjetividade, no fomento ao diálogo e na proteção das condições sociais da liberdade.

 

6 CONSIDERAÇÕES FINAIS

A ascensão da normatividade algorítmica está redefinindo o campo da autoridade jurídica, trazendo à tona questões complexas relacionadas à tecnologia e ao direito. Os sistemas automatizados, ao estabelecerem padrões de conduta, orientam decisões e exercem poder sobre indivíduos e coletividades. Essa autoridade técnica, embora não derivada do processo democrático, produz efeitos concretos sobre direitos fundamentais, exigindo uma resposta jurídica que se projete para além da mera reação normativa.

A operação desses sistemas é baseada na eficiência, na previsibilidade e na automação, regulando comportamentos por meio de arquiteturas ocultas que moldam escolhas antes mesmo que sejam feitas. A liberdade formal permanece, mas seu conteúdo é progressivamente esvaziado, pois as alternativas reais são pré-selecionadas por modelos cuja lógica escapa ao controle dos sujeitos afetados. Isso configura uma forma contemporânea de colonização do mundo da vida, onde esferas antes regidas pela ação comunicativa - diálogo, compreensão mútua, reconhecimento - são submetidas a uma racionalidade instrumental que prioriza a coordenação técnica sobre a intersubjetividade.

A reificação algorítmica transforma sujeitos em perfis preditivos, despersonalizando-os e comprometendo o reconhecimento ético, base da convivência democrática. A pessoa não é mais reconhecida em sua historicidade, intencionalidade ou dignidade, mas reduzida a uma representação técnica, um avatar, capaz de gerar valor econômico ou funcional. Isso fragiliza as condições para o desenvolvimento da identidade e da responsabilidade moral, comprometendo a própria essência da humanidade.

A resposta jurídica a esse desafio não pode se restringir à proteção de dados ou a um comando normativo vertical. É necessário avançar para uma regulação sistêmica, capaz de assegurar o primado do direito sobre a lógica técnica. O direito deve impor limites à autonomia dos sistemas algorítmicos, exigir responsabilização por decisões automatizadas e garantir que a dignidade humana permaneça como valor fundante de qualquer ordenamento.

Além disso, é preciso redefinir a autonomia informacional como um direito ativo e coletivo, permitindo que indivíduos compreendam os modelos que os afetam, contestem decisões, acessem suas bases e, quando necessário, recusem sua aplicação.

Mecanismos reais de controle, participação e fiscalização são necessários para romper com a opacidade dos sistemas privados e assegurar que as tecnologias sirvam aos fins da justiça, igualdade e liberdade. O direito tem o dever de proteger os cidadãos da invasão de lógicas sistêmicas que o desvirtuam, impondo uma postura proativa na regulação da Inteligência Artificial.

A exigência de revisão humana, ética e democrática das decisões algorítmicas torna-se, assim, um imperativo ético e político. Significa que as decisões que têm impacto nas vidas das pessoas não podem ser delegadas exclusivamente a máquinas, sem que haja uma supervisão e um controle humano. Por mais avançados que sejam, esses sistemas não possuem a capacidade de compreender o contexto, a complexidade e as nuances das relações humanas.

A revisão humana é fundamental para garantir que as decisões algorítmicas sejam justas, transparentes e respeitem os direitos humanos. Além disso, é necessário que haja uma abordagem normativa que estabeleça padrões claros e rigorosos para o desenvolvimento e a implementação de sistemas algorítmicos, incluindo a definição de critérios para a tomada de decisões.

A revisão ética envolve a consideração dos valores e princípios que devem guiar as decisões algorítmica, o que torna indispensável a proteção da privacidade, a não discriminação e a promoção da justiça social. A revisão democrática assegura, assim, que as decisões algorítmicas sejam submetidas ao escrutínio público e sejam compatíveis com os valores e princípios democráticos.

Portanto, a abordagem normativa que assegure a revisão humana, ética e democrática das decisões algorítmicas é essencial para garantir que as tecnologias sejam utilizadas de forma responsável e que os direitos humanos sejam protegidos.

Por outro lado, é fundamental promover a conscientização e a educação sobre os impactos da normatividade algorítmica na sociedade, garantindo que os indivíduos estejam capacitados a compreender e a lidar com as implicações dessas tecnologias. A transparência e a explicabilidade dos sistemas algorítmicos são essenciais para que os indivíduos possam exercer seus direitos e liberdades de maneira informada.

A autoridade dos algoritmos não é inevitável; é uma construção social que pode, e deve, ser submetida ao debate, à crítica e ao controle. O direito, em sua função emancipatória, tem a missão de garantir que a tecnologia não redefina o homem, mas seja, sempre, por ele redefinida. Nesse equilíbrio, reside a esperança de uma sociedade que não perca a humanidade no caminho da inteligência.

 

 

REFERÊNCIAS

ANEESH, A. “Technologically Coded Authority: The Post-Industrial Decline in Bureaucratic Hierarchies”. 7th International Summer Academy on Technology Studies, Deutschlandsberg, Austria., 2002. Disponível em: https://www.researchgate.net/profile/A-Aneesh/publication/254843955_Technologically_Coded_Authority_The_Post-Industrial_Decline_in_Bureaucratic_Hierarchies/links/5bf45834a6fdcc3a8de46665/Technologically-Coded-Authority-The-Post-Industrial-Decline-in-Bureaucratic-Hierarchies.pdf. Acesso em: 8 mar. 2025.

 

BRASIL. Constituição da República Federativa do Brasil de 1988. Disponível em: https://www.planalto.gov.br/ccivil_03/constituicao/constituicao.htm.

Acesso em: 7 set. 2025.

 

BRASIL. Lei nº 12.965, de 23 de abril de 2014. Marco Civil da Internet. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2011-2014/2014/lei/l12965.htm.

Acesso em: 7 set. 2025.

 

BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados (LGPD). Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm. Acesso em: 7 set. 2025.

 

CAMPOS, Ricardo. Metamorfoses do direito global: sobre a interação entre direito, tempo e tecnologia. São Paulo: Contracorrente, 2022, p. 31. Apud LUHMANN, Niklas. Grundrechte als Institution: Ein Beitrag zur politischen Soziologie. 3a ed. Berlin, 1999, pp. 51/52.

 

HABERMAS, Jürgen. Pensamento Pós-Metafísico - Estudos Filosóficos.Tradução de Flávio Beno Siebeneichler. Rio de Janeiro: Tempo Brasileiro, 1990.

 

HABERMAS, Jürgen. Facticidade e Validade - 2ª edição. Tradução de Rúrion Melo e Felipe Gonçalves Silva. São Paulo: UNESP, 2021.

 

HABERMAS, Jürgen. Teoria da Ação Comunicativa: Racionalidade da ação e racionalização social | Para a crítica da razão funcionalista. Tradução de Luiz Repa. São Paulo: UNESP, 2022.

 

HAN, Byung-Chul. Psicopolítica e Neoliberalismo. Belo Horizonte: Ayiné, 2018.

HONNET, Axel. A Luta pelo Reconhecimento: Para uma Gramática Moral dos Conflitos Sociais. Coimbra: Edições 70, 2011.

 

HONNET, Axel. Reificação: Um estudo de teoria do reconhecimento. Tradução de Rúrion Melo. São Paulo: UNESP, 2018.

 

LUHMANN, Niklas. La sociedad de la sociedad. México: Universidad Iberoamericana, 2006.

 

SANTIAGO, Eloisa Samy. Avaliação de Impacto Algorítmico: Desafios Éticos e Jurídicos na Identificação e Mitigação do Viés de Gênero. Orientadora: Daniela Silva Fontoura de Barcellos. Dissertação (mestrado) - Universidade Federal do Rio de Janeiro, Faculdade Nacional de Direito, Programa de Pós-Graduação em Direito. Rio de Janeiro, 2025.

 

TELES, Edson. “Ação Política Híbrida e a Dissolução da Cidadania”. Revista de Filosofia Moderna e Contemporânea, Brasília, v.8, n.3, dez. 2020, p. 81-103. Disponível em: https://doi.org/10.26512/rfmc.v8i3.34494. Acesso em: 8 mar. 2025.

 

ZUBOFF, Shoshana. A Era do Capitalismo de Vigilância. Tradução de George Schlesinger. Rio de Janeiro: Intrínseca, 2021[Edição digital].

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

        



[1]  Mestre em Direito pela Universidade Federal do Rio de Janeiro – UFRJ; Pós-graduada com Especialização em Gênero e Direito pela Escola da Magistratura do Estado do Rio de Janeiro – EMERJ; Advogada.