ENTRE FILTROS E BOLHAS:

a modulação algorítmica na sociedade pós-panóptica

Ramon Davi Santana[1]

Universidade Federal da Bahia (UFBA)

ramonds@ufba.br

Barbara Coelho Neves[2]

Universidade Federal da Bahia (UFBA)

barbaran@ufba.br

______________________________

Resumo

Aborda a modulação algorítmica e sua relação com a mediação da informação e o processo de filtragem da informação a partir do efeito filtro-bolha. Tem como objetivos discutir a informação no contexto da sociedade algoritimizada; debater a vigilância, o monitoramento e a filtragem da informação; e destacar a modulação algorítmica e a mediação da informação. A abordagem é qualitativa e utiliza a pesquisa bibliográfica sobre a temática proposta e a observação direta junto às plataformas digitais que fazem uso de filtragem. Como resultado, este artigo apresenta uma revisão dos principais conceitos que norteiam a filtragem da informação com o auxílio da modulação algorítmica. Conclui-se que a filtragem da informação e o filtro-bolhadesenvolvem um ambiente controlado de informações mediante a propósitos escusos, gerando influências nos tecidos informacional, social, cultural e político da sociedade.

Palavras-chave: Acesso à informação. Algoritmos-Modulação. Mediação da Informação. Filtragem da informação. Sociedade.

BETWEEN FILTERS AND BUBBLES:

the algorithmic modulation in the post-panoptic society

Abstract

The work approaches the algorithmic mediation and its relationship with the information filtering process and the filter bubbleeffect for Information Science. The problem is the algorithmic mediation practices of filtering information and its relationship with this effect. It uses the literature review method on the proposed theme and direct observation with digital platforms that make use of filtering. It is concluded that the filtering of information and the filter bubblebuild up a controlled information environment through unknown purposes, generating influences on the informational, social, cultural and political contexts of society. 

Keywords: Access to information. Algorithms-Modulation. Information Mediation. Leaked information. Society.

ENTRE FILTROS Y BURBUJAS:

la modulación algoritmica en la sociedad post-panóptica

Resumen

El trabajo aborda la mediación algorítmica y su relación con el proceso de filtrado de información y el efecto burbuja de filtropara las Ciencias de la Información. El problema son las prácticas de mediación algorítmica de filtrado de información y su relación con este efecto. Utiliza el método de revisión de la literatura sobre el tema propuesto y la observación directa con plataformas digitales que hacen uso de filtrado. Se concluye que el filtrado de la información y la burbuja de filtroconstruyen un ambiente de información controlado a través de propósitos desconocidos, generando influencias en los contextos informativos, sociales, culturales y políticos de la sociedad. 

Palabras clave: Acceso a la información. Algoritmos de modulación. Mediación de información. Filtrado de información. Sociedad.

1 INTRODUÇÃO

Pensar o futuro, na maioria das vezes, confunde-se com pensar os avanços das tecnologias já existentes e a criação de outras novas. Nessa esteira, imaginar o futuro é repensar o presente, mas colocando sob a tutela das tecnologias a responsabilidade inequívoca de desenvolver soluções para as mazelas que precisamos enfrentar como sociedade. Na sua obra distópica 1984”, George Orwell buscou retratar o seu presente. Para nós, enquanto sociedade contemporânea, Orwell na verdade lançou seu olhar sobre o nosso futuro.

O Grande Irmão” que a tudo controla e a tudo vigia já está entre nós? Como dito, o futuro é uma reflexão sobre o presente que, neste caso, não procura adivinhar ou realizar previsões probabilísticas, mas induzir, sobre elementos sociotécnicos presentes na atual realidade, o que é e o que será, o que temos e o que teremos.

Posto isso, o tema que envolve privacidade e vigilância tem sido cada vez mais necessário no debate que converge as temáticas e elementos sociotécnicos da plataformização, Big Data, política, economia e poder. Afinal, Deleuze já alertava no início da década de 1990 sobre o viés das ferramentas”, tendo, nesse quesito, destacado os computadores e as máquinas cibernéticas como símbolos da sociedade de controle.

A fim de trazer a tona essa discussão, este artigo perpassa pelos estudos voltados à vigilância e monitoramento de dados pelo prisma da Ciência da Informação (CI). Tem como objetivo tratar da questão da modulação algorítmica no âmbito do ciberespaço. Especificamente, aborda a relação do processo de modulação algorítmica de filtragem da informação com o efeito “filtro-bolha” de Eli Pariser. De tal modo, nos moldes deste estudo, tem-se como problema de pesquisa a modulação algorítmica e a filtragem da informação, bem como sua relação com o efeito filtro-bolha”.

Entende-se que este é um campo de interesse para pesquisas da Ciência da Informação e a consecução de estudos sobre a temática aqui pretendida pode acarretar em relevantes contribuições para a área, posto que o entendimento dos processos e fluxos de informação no ciberespaço, então ambientados em um contexto sociopolítico recente. A problematização aqui em foco, pode engendrar discussões teóricas, práticas e principalmente políticas acerca do acesso, controle e uso da informação na Internet, seja pelo viés dos regimes de informação ou das “bolhas”, seja pelo viés das políticas de acesso e controle da informação na sociedade contemporânea.

 

 

2 MATÉRIAL E MÉTODO

 

Vale salientar, ainda, que não se pretende neste estudo aprofundar-se em conceitos ou elementos técnicos desse processo de filtragem da informação ou do próprio algoritmo, mas sim tangenciar e extrapolar sobre como ele ocorre no ciberespaço a partir pesquisa bibliográfica realizada, sob o prisma da abordagem qualitativa, e da observação direta e empírica que pôde ser feita junto a algumas plataformas digitais, o que aqui consideram-se, portanto, como os métodos de investigação fundamentais deste trabalho. A pesquisa bibliográfica que culminou neste artigo tomou como enfoque temático as discussões empreendidas no campo da CI que dizem respeito à modulação algorítmica.

Em relação aos objetivos estipulados para a Pesquisa, o texto apresenta-se inicialmente por uma necessária delimitação do conceito de informação e do contexto em que se insere o estudo, onde se aborda, além disso, os conceitos de ciberespaço, cibercultura e mídias sociais. Depois, avança para a discussão central da temática, em que se busca tratar da mediação algorítmica, do algoritmo em si, da filtragem da informação e, finalmente, do “filtro-bolha”, sempre nos limites da CI.

 

3 A INFORMAÇÃO NO CONTEXTO DA SOCIEDADE ALGORITMIZADA

 

Para tratar do fenômeno da `algoritmização` da informação no ciberespaço e a relação dele com o efeito “filtro-bolha”, é indispensável precipuamente abordar o próprio conceito de informação tal como objeto desse fenômeno. A fim disso, lança-se mão das concepções de Buckland (1991) e de Capurro e Hjorland (2007) sobre o conceito no âmbito da Ciência da Informação (CI).

De acordo com Buckland (1991), a informação é “coisa”, é tangível, assim como acaba por ser também processo e conhecimento. Nesse sentido, o autor insere a ideia de informação como documento, mas sem desconsiderar sua natureza subjetiva, o que corrobora com a contextualização deste trabalho no âmbito do paradigma social das tendências contemporâneas da CI, cuja abordagem epistemológica remete a uma perspectiva fenomenológica do campo voltada para o ambiente virtual, o ciberespaço (BUCKLAND, 1991; ARAÚJO, 2014).

Nessa esteira, Capurro e Hjorland (2007, p. 187) concebem a informação como “[...] qualquer coisa que é de importância na resposta a uma questão [...]”. Assim, na prática, a informação estaria intrinsecamente relacionada ao atendimento de uma necessidade ou demanda por parte do indivíduo, respondendo a uma questão previamente realizada. Portanto, os processos voltados a geração, coleta, organização, interpretação, armazenamento, recuperação, disseminação e transformação da informação, inclusive no ambiente virtual, devem estar vinculados a aspectos que considerem tanto os problemas quanto os objetivos que a informação deve atender (CAPURRO; HJORLAND, 2007).

Com base nisso, e orientando-se à temática proposta, o conceito de Buckland (1991) representaria nos moldes desta pesquisa a própria informação processada por algoritmos como “coisa”; o próprio processamento ou mediação algorítmica como processo; e, por fim, quanto à “informação como conhecimento”, contemplaria a relação que o usuário desenvolve com a informação nesse contexto específico de mediação algorítmica. Nesse sentido, o fenômeno denominado “filtro-bolha”, o qual se estabelece na filtragem das informações que se apresentam ou deixam de serem apresentadas ao indivíduo a partir dos “rastros” coletados do comportamento de uso pregresso desses usuários na rede, se constitui como uma das facetas de uma realidade que marca um novo cenário em conformação na sociedade contemporânea.

 

3.1 Sociedade disciplinar + sociedade de controle = sociedade da informação

 

Tendo nas redes digitais seu símbolo maior, em que se destaca a Internet, a sociedade da informação entra na primeira década deste milênio questionada quanto ao alcance das promessas de liberdade de acesso e de uso (FERREIRA, 2014). A sociedade do discurso da expansão do acesso e da apropriação por meio de competências informacionais e midiáticas está mais para sociedade de disciplina, vigilância e controle.

Antes de Deleuze se debruçar sobre a sociedade de controle no fim do século passado, Foucault situou a sociedade disciplinar nos séculos XVIII e XIX como um modelo ou configuração de sociedade pautado na organização do poder em grandes meios de confinamentos (FOUCAULT, 2013; DELEUZE, 1992). A principal característica da sociedade disciplinar é, portanto, o panoptismo, largamente representado por seu generalizável mecanismo de vigilância chamado de panóptico[3], uma torre central que vigia a tudo e a todos (FOUCAULT, 2013).

Na concepção foucaultiana, a sociedade disciplinar é regida por regras e por mecanismos ou dispositivos de controle e vigilância que possam garantir o cumprimento das leis e, quando couber, da punição. Para funcionar, o indivíduo deve viver em espaços de confinamento, perambulando de um lado para o outro. A casa, a indústria, a escola, o presídio e o manicômio são, para a sociedade disciplinar, exemplos desses espaços (FOUCAULT, 2013).

Como espaços fechados que naturalmente são, permitem a adoção de técnicas de controle e vigilância, bem como a implantação de diversos mecanismos de controle que ficarão responsáveis por vigiar cada ação dos sujeitos que estão confinados nesses espaços e submetidos ao constante processo de vigilância.

Todavia, Deleuze (1992) indica que a sociedade disciplinar ruiu. Para o filósofo, precisamente após a Segunda Guerra Mundial, iniciou-se uma crise generalizada de todos os meios de confinamento” (DELEUZE, 1992, p. 220), quando, como sociedade que somos, saímos dos tempos disciplinares para entrar na era da sociedade de controle.

Reformar a escola, reformar a indústria, o hospital, o exército, a prisão; mas todos sabem que essas instituições estão condenadas, num prazo mais ou menos longo. Trata-se apenas de gerir sua agonia e ocupar as pessoas, até a instalação das novas forças que se anunciam. São as sociedades de controle que estão substituindo as sociedades disciplinares. (DELEUZE, 1992, p. 220).

 

Além da intenção de adocicar o corpo objetivando as condições produtivas, o adestramento passa ser uma via da sociedade disciplinar visando a melhoria dos indivíduos. A disciplina, enquanto invenção burguesa, cumpriu bem o seu papel no desenvolvimento do Capitalismo, exercendo a docilidade nos corpos como uma eficaz tecnologia do poder.

Nesse contexto - questões como a da circulação da informação, transferência e recuperação da informação - processos esses de dimensões política, econômica, social e cultural, tornam-se cada vez mais mediado e intermediado pelas próprias redes digitais. Essas tecnologias, pensadas enquanto ferramentas na perspectiva de Deleuze (1992), surgem exatamente na conformação da sociedade de controle. Desse modo, enquanto a disciplina demanda por um longo e descontínuo período de tempo necessário ao adestramento dos comportamentos, o controle se exerce em curto prazo, além de ser contínuo e ilimitado (FERREIRA, 2014). O atual panóptico high-tech (Internet), munido pelo big data, inaugura um outro nível de disciplina e de controle tendo como habitat o ciberespaço e as mídias sociais. 

 

3.2 Delimitações conceituais sobre o ciberespaço e as mídias sociais

 

Buscando contextualizar este estudo em um espaço objetivado, vale resgatar os conceitos de ciberespaço e cibercultura pela ótica de Lévy (1999), sendo o ciberespaço toda a “Rede”, ou a infraestrutura material de comunicação digital, a qual inclui também “[...] o universo oceânico de informações que ela [a Rede] abriga [e] os seres humanos que navegam e alimentam esse universo [...]” (LÉVY, 1999, p. 17), enquanto que a cibercultura, por sua vez, diz respeito às técnicas (materiais e intelectuais), práticas, atitudes, modos de pensamento e valores que são performados junto ao desenvolvimento desse ciberespaço.

Nesse contexto, entende-se a cibercultura como uma formação histórica, prática e cotidiana, em que cujas linhas de força estão em rápida expansão, baseadas em redes telemáticas que criam não apenas um mundo próprio, mas também um mundo de interrogação intelectual pujante dividido em várias tendências e interpretações (RÜDIGER, 2013).

A partir desse entendimento, propõe-se aqui conceber dedutivamente o ciberespaço como o locus de ocorrência do fenômeno da algoritmização e do efeito “filtro-bolha”, considerando, sobretudo, sua materialidade e seus elementos passíveis de caracterização. Desta forma, o processamento algorítmico empreitado pelas plataformas digitais, incluindo as mídias sociais ou sites de redes sociais (RECUERO, 2017), torna-se o foco de análise, a fim de poder identificar seus aspectos primordiais e suas características marcantes tanto no seu próprio funcionamento quanto nos impactos que dele decorre.

A cibercultura é outro elemento caro à temática em tela. Fundamentando-se pela concepção de Lévy (1999), procura-se neste trabalho interpretar pelo conceito da cibercultura o comportamento de uso do indivíduo performado na Rede, bem como a relação que se estabelece entre ele e a informação filtrada no ciberespaço. Nesse caso, emergem-se algumas perguntas que o presente texto buscará responder, tais como: a que tipo de informação o sujeito passa a ter acesso? Por outro lado, a que tipo de informação seu acesso é indisponível? Quais os interesses por trás disso? E como os “rastros” deixados pelo indivíduo na Rede delineiam o conjunto de informações a que ele passa a ter acesso?

Finalmente, para fins deste estudo, define-se mídias sociais como um espaço no qual as barreiras para publicação de dados desaparecem (BARGER, 2013), sendo o conceito de “social” sempre mais relevante que o conceito de “mídia” por aquele garantir o território das relações e, dentre outras possibilidades, das trocas de informações (NEVES, 2018), com flexibilidade de laços sociais e dinâmica própria ligada de alguma forma à arquitetura da tecnologia sobre a qual é constituída (MARTINO, 2014).

As mídias sociais se constituíram como terrenos férteis para a implementação de técnicas de mídia direcionada, sistema de sugestões e filtros de conteúdo. Tais técnicas podem ser observados no uso da Internet e de seus aplicativos que segundo Meireles (2021) são exemplos cotidianos em que os algoritmos atuam na tentativa de influenciar as escolhas individuais. Nessa perspectiva, os dados pessoais são coletados, extraídos, analisados, processados e tratados por máquinas para finalidades pouco transparentes que por muitas vezes culminam em vigilância e monitoramento da informação dos usuários de mídias sociais.

 

4 VIGILÂNCIA, MONITORAMENTO E FILTRAGEM DA INFORMAÇÃO

 

Os aspectos da vigilância e monitoramento de dados não são tão recentes quanto se acredita no imaginário popular, e muito menos estão somente relacionados à época atual de escândalos de vazamento de dados por grandes corporações de mídias sociais. Na verdade, são princípios e práticas que nasceram com a necessidade de se minimamente monitorar e controlar grandes volumes de dados e informações. A chamada Era dos Dados é altamente colaborativa, aberta e descentralizada, diferente de tudo o que já se conhecia antes no que diz respeito à produção e circulação da informação, potencializada pela Internet.

Nesse sentido, a vasta produção e circulação de conteúdos na Rede urgia de um controle, mediação ou filtragem mínima da informação de modo que o que pudesse ser útil para um usuário estivesse a sua disposição, a poucos cliques, sem a necessidade de que ele arduamente tivesse de vasculhar inúmeros e diversos volumes de informação até encontrar o que desejava na Internet. Um bom exemplo recente dessa organização são os mecanismos de busca, caso do Google, Bing e Yahoo! Search, que, atendendo a uma estratégia de busca por meio de termos ou palavras-chave, vasculham e localizam na miríade da Web ‒ realizando basicamente uma curadoria ‒ os conteúdos considerados mais relevantes e que potencialmente atenderão à necessidade de informação do usuário (JOHNSON, 2003; SCHONS, 2007; FAVA, 2015).

Para que esse processo ocorra com a eficácia necessária a ponto de oferecer ao usuário a informação que ele mais estará disposto a consumir, ou seja, a mais relevante, é necessário que os mecanismos de busca realizem anteriormente um complexo processo computacional e algorítmico de coleta, armazenamento e análise de dados acerca dos rastros que o usuário deixa durante seu uso e navegação na Web. Esses dados representam vestígios de ações e movimentos que o indivíduo desempenhou na Rede antes da busca, os quais são continuamente coletados e analisados, por exemplo, ao ler notícias em um portal, ao interagir com amigos em sites de redes sociais ou simplesmente ao utilizar um smartphone para se locomover pela cidade.

A estratégia econômica da Google é coletar dados sobre os usuários que utilizam seus diferentes aplicativos em diferentes situações cotidianas. Quanto mais situações triviais forem atendidas pelos aplicativos da Google, mais tempo os usuários permanecerão online com a Google, então mais dados sobre eles estarão disponíveis para a empresa, o que permite a Google melhor analisar o uso e comportamento do consumidor (FUCHS, 2011, p. 291, tradução nossa).

 

Esses mecanismos fazem parte de uma variedade de tecnologias de controle que, dentre outros objetivos, intencionam principalmente a identificação, vigilância e investigação das ações de usuários no ciberespaço (CASTELLS, 2003). Assim, na situação anteriormente mencionada, os mecanismos de busca se colocariam na interseção entre as tecnologias de identificação, de vigilância e de investigação, uma vez que fazem uso de cookies, procedimentos de autenticação e senhas, interceptação de fluxos de informação e instalação de marcadores geográficos ou para outros fins com o propósito de construir e manter um banco de dados que permita o armazenamento e análise das ações do usuário em rede (CASTELLS, 2003).

A problemática, todavia, emerge exatamente sobre esses aspectos de filtragem e de mediação, neste caso, algorítmica, dos conteúdos disponíveis na Rede. Pontos estes que necessitam ser discutidos tanto pela ótica da privacidade e vigilância de dados, já amplamente pautada nos estudos sobre ciência, tecnologia e sociedade ou até mesmo na esfera da comunicação contemporânea e de mídias sociais, quanto pela perspectiva da Ciência da Informação (CI), sob as postulações no âmbito do acesso e controle da informação, regimes de informação e especificamente no contexto da circulação, recuperação e disseminação da informação no ciberespaço.

 

5 MODULAÇÃO ALGORÍTMICA E A MEDIAÇÃO DA INFORMAÇÃO

 

Os algoritmos sejam eles simples ou inteligentes analisam, comparam e tratam informações dos mais variados formatos a todo momento. A principal diferença entre eles é que, enquanto os algoritmos são códigos computacionais escritos para resolver problemas específicos, os algoritmos inteligentes – sejam eles chamados de inteligência artificial ou machine learning – são programados para solucionar problemas (MEIRELES, 2021).

A modulação nas redes que se organizam em mídias digitais envolve tanto o controle da visualização de conteúdo como todo o sistema de categorização operado pelos algoritmos. As plataformas onde repousam as mídias sociais mais utilizadas pela humanidade são as detentoras dos “algoritmos de caixa preta”. É sabido que a expressão ‘caixa preta’ vem da eletrônica de Bateson e da cibernética de Flusser e, atualmente, os algoritmos denominados desta forma remetem a códigos e modelos de cunho secreto, lacrado e fechado.

De maneira breve, faz-se imprescindível abordar inicialmente o próprio conceito de mediação da informação para a CI antes de se falar da mediação algorítmica. Destarte, a luz do pensamento de Santos Neto e Almeida Júnior (2017), a mediação está diretamente relacionada com a ação de interferência, o que caracteriza o processo de mediação como um ato intencional, longe de ser passivo, mesmo quando realizado de forma consciente.

Embora Santos Neto e Almeida Júnior (2017) destaquem a ação mediadora como sendo realizada pelo profissional da informação, aqui, neste estudo, compreende-se que o ato de mediar também é possível de ser consumado por qualquer tipo de indivíduo, seja ele humano ou não-humano (CARIBÉ, 2019).

Para tratar a mediação da informação no seio do processo algorítmico na Rede, é importante retomar Buckland (1991) sobre o conceito de informação como coisa, o que nesta investigação permite-se compreender a informação pelo seu “estado mais bruto”, ou seja, distante de qualquer “[...] valor implícito ou explícito, simbólico ou estético(CARIBÉ, 2019, p. 25), o que assegura conceber a informação como conteúdos disponíveis no ciberespaço e passíveis de algoritmização. Nessa vertente, então, o próprio ato de adicionar tais valores à informação configura-se por si só uma ação mediadora que pode ser explorada nesta pesquisa.

Com a intenção de abordar e compreender como ocorre a mediação algorítmica, Caribé (2019) conceitua a mediação da informação por meio de quatro tipos distintos: a mediação técnica, a mediação por pares, a mediação midiática e, finalmente, a mediação algorítmica, sendo esta última “[...] um sofisticado processo de mediação tecnológica da informação, implícita, não humana, que usa um enorme volume de dados do indivíduo para entregar-lhe informação sob medida, e ou por interesse de terceiros.” (CARIBÉ, 2019, p. 26).

Nesse sentido, pressupõe-se que a modulação algorítmica decorre das mediações técnica, por pares e midiática. Da mediação técnica implica nas intervenções práticas de editoração e de usabilidade da informação, em que se assegura, por exemplo, uma relação da mediação com a arquitetura da informação, assim como, em especial, dos níveis de visibilidade da informação nos ambientes digitais (CARIBÉ, 2019). Por conseguinte, é possível citar a forma como as informações estão dispostas no “feed de notícias” do Facebook e como isso ocasiona efeitos no uso da informação por parte do sujeito na Rede.

Em relação à mediação por pares, a informação algoritmizada recebe o valor simbólico, o qual se dá por meio do relacionamento com outros sujeitos, decorrendo, então, do convívio social entre os indivíduos (CARIBÉ, 2019). Quanto a isso, é possível extrapolar para a forma como as pessoas se relacionam com outras nas mídias sociais, e, principalmente, como as informações que elas trocam entre si caracterizam fortemente um processo de mediação da informação, podendo ainda aquela ser uma poderosa ferramenta capaz de levar as informações necessárias tanto com vistas ao empoderamento dos indivíduos, como à manutenção de um estado de ignorância e seus efeitos prejudiciais (fake news, boatos e desinformação).

a mediação midiática alimenta esse processo de modulação, em específico, por meio da curadoria que promove sobre a informação e os conteúdos disponíveis, atribuindo também à informação um determinado capital simbólico, segundo Caribé (2019). Desta forma, nota-se que a mediação midiática nutre uma próxima relação com a modulação algorítmica por tratar de aspectos de curadoria e, consequentemente, filtragem da informação, o que lhe assegura a estabelecer o rol de informações e conteúdos a que o sujeito passa a ter acesso ou deixa de ter em um dado ambiente e contexto.

A proximidade que a mediação algorítmica mantém com a mediação técnica explica, dentre outros motivos, como se desenvolve a visibilidade da informação no ciberespaço, uma vez que as intervenções de usabilidade definem a disposição das informações nas páginas e a forma como elas se apresentam ao usuário.

[...] há uma brutal variação entre a probabilidade de uma informação ser visualizada quando disposta no topo da página ou mais embaixo. Ou seja, o Facebook não precisa omitir determinado link ou informação, basta dispô-lo no fim do feed, reduzindo substancialmente a possibilidade de ser visto. (CARIBÉ, 2019, p. 1-2).

 

No imaginário das pessoas, o processo algorítmico nas plataformas digitais ocorre de maneira autônoma por ser fruto de uma preocupação estritamente racional dada no campo das certezas matemáticas e da objetividade tecnológica (SEAVER, 2017) e, portanto, distante de qualquer tipo de influência externa humana, social, política e cultural. Contudo, além da popular definição de algoritmo como uma receita de bolo, posto como um conjunto de regras ou etapas formais rigorosamente delineadas em prol de um resultado ou solução de um problema rigorosamente definido (MANZANO; OLIVEIRA, 2018), o processamento feito por algoritmos não é totalmente neutro.

A ausência de neutralidade no algoritmo dá-se de início no próprio processo de tradução e transferência dos termos para uma linguagem de computador (MACHADO, 2018). Essa tarefa é realizada sempre por um profissional humano, com seus posicionamentos, ideologias e idiossincrasias, o que faz com que o algoritmo sofra influências externas de cunho social, cultural e político neste caso.

Além disso, a criação de um algoritmo pode estar atrelada a interesses comerciais e econômicos de empresas tecnológicas capitalistas (MACHADO, 2018). Ao se pensar nas “Big Techs”, por exemplo, é possível observar o propósito da estrutura algorítmica para predizer conteúdos patrocinados e sugerir anúncios publicitários em troca de taxas por cliques ou simplesmente em contrapartida a financiamentos com motivos desconhecidos e duvidosos, desde econômicos a políticos. Estudos como o de Schneider, Ramos e Carvalho (2019) e de Lobo, Morais e Nemer (2020) sobre a influência dos algoritmos na democracia brasileira indicam notadamente a ocorrência de tal fenômeno no ciberespaço e, em especial, nas mídias sociais.

Silveira (2019), por outro lado, acrescenta que a mediação algorítmica desenvolvida no âmbito das plataformas digitais não é autônoma porque quem treina e, por sua vez, alimenta os algoritmos são os próprios usuários, o que o autor denomina como “modulação”.

A modulação é um processo de controle da visualização de conteúdos, sejam discursos, imagens ou sons. As plataformas não criam discursos, mas contam com sistemas de algoritmos que distribuem os discursos criados pelos seus usuários, sejam corporações ou pessoas. Assim, os discursos são controlados e vistos, principalmente, por e para quem obedece aos critérios constituintes das políticas de interação desses espaços virtuais. Para engendrar o processo de modulação não é preciso criar um discurso, uma imagem ou uma fala, apenas é necessário encontrá-los e destiná-los a segmentos da rede ou a grupos específicos, conforme critérios de impacto e objetivos previamente definidos. (SILVEIRA, 2019, p. 21).

 

Nesse sentido, a performance do algoritmo na plataforma ocorre de acordo com o enviesamento que os usuários lhe dão durante seu uso, alimentando seu rol de regras e definições a partir das preferências e, por sua vez, do perfil do indivíduo, os quais são selecionados dos rastros de navegação do usuário na própria plataforma. Com isso, o algoritmo consegue probabilizar o conjunto de informações ou conteúdos a que o usuário potencialmente tem interesse, ao mesmo tempo que invisibiliza ou dificulta o acesso ao conjunto que, na sua concepção, é irrelevante para o indivíduo em questão.

Não obstante, a dubiedade no entendimento sobre o funcionamento e as funções desses sistemas algorítmicos é intencional e, então, vantajosa para suas empresas responsáveis (MACHADO, 2018). Desta forma, tanto os usuários comuns que utilizam essas plataformas para se conectar com outras pessoas e consumir informação, quanto aqueles que fazem uso comercial e publicitário dos seus recursos para impulsionar conteúdo e disponibilizar anúncios, conseguem ter um certo grau de confiança no funcionamento desse organismo, a ponto de poder considerá-lo como um serviço neutro para quem consome e como uma ferramenta de promoção altamente seletiva para quem anuncia (MACHADO, 2018).

Assim, o problema que identificamos nesse contexto apresentado é que, a mediação da informação quando realizada pela modulação algorítmica, potencializa uma modulação comportamental da sociedade, dando a sensação de liberdade sob certas restrições, ou escolhas limitadas pelas opções disponíveis pela filtragem de informação das plataformas digitais.

 

 

4.1 Filtragem da informação e o “efeito filtro-bolha”

 

Resultados de um levantamento realizado por Joler e Petrovski (2016) anunciavam um fato relevante: em seus data centers, somente o Facebook armazena mais de 300 petabytes de dados de seus usuários, contendo desde preferências musicais a informações de cunho pessoal que, ora os usuários fornecem espontaneamente à plataforma, ora o organismo algorítmico consegue predizer com base no monitoramento e uso pregresso de cada indivíduo. O exponencial Big Data do Facebook, por exemplo, é suficiente para desenvolver as mais diversas técnicas de filtragem de informação, permitindo que a plataforma distribua as informações mais relevantes com base em propósitos e critérios demasiadamente específicos definidos pela própria empresa (MACHADO, 2018).

Contudo, a filtragem da informação em ambientes como esse apenas é possível a partir do monitoramento constante sobre os usuários (MACHADO, 2018), pois, desta forma, os algoritmos conseguem coletar preferências, desejos, escolhas e até desgostos de cada indivíduo a fim de construir algo como um perfil digital que possa refletir as idiossincrasias e particularidades do sujeito do “mundo físico(CARIBÉ, 2019).

A baila disso, um elemento passível de discussão a essa temática que deve ser tratado de forma recursiva para o Estudo, é o efeito “filtro-bolha”. Recursivo, pois, ao mesmo tempo que se trata de um fenômeno causador de uma potencial “bolha de informações” no seio da mediação algorítmica, é também consequência dessa própria “bolha”. Portanto, trabalha-se nesse sentido com a hipótese de que o “filtro-bolha” é causa e consequência dessa filtragem de informação no ciberespaço, assim como, sobretudo, um elemento protagonista da mediação algorítmica.

Ainda na década de 1990, em sua obra de não ficção “Being digital”, Negroponte (1995) já havia imaginado para um futuro próximo o que ele chamou de “The Daily Me”, um jornal online que apresentaria apenas notícias com base nos interesses temáticos do leitor. O que foi uma ideia de prospecção futurística, tornou-se realidade hoje com o que Pariser (2012) denomina como “filtro-bolha”. A ação é a mesma: uso de filtros que decidem qual informação é pertinente e quais não são a partir dos interesses de cada indivíduo, a fim de oferecer somente “conteúdos relevantes”.

Pariser (2012) alcunha o “filtro-bolha” no seu livro “O filtro invisível: o que a Internet está escondendo de você” a partir do seu experimento realizado no popular serviço de buscas da Google, conceituando-o como

[...] mecanismos de previsão que criam e refinam constantemente uma teoria sobre quem somos e sobre o que vamos fazer ou desejar a seguir. Juntos, esses mecanismos criam um universo de informações exclusivo para cada um de nós [...] que altera fundamentalmente o modo como nos deparamos com ideias e informações. (PARISER, 2012, p. [11]).

 

Na sua análise feita junto às páginas de resultados de pesquisa, Pariser (2012) defende que a empresa realiza constante coleta de dados para a efetivação de um processamento algorítmico com a prioritária intenção de criar perfis de uso capazes de personalizar e individualizar o leque de informações a que um usuário passa a ter acesso, destacando seus propósitos notadamente comerciais, dentre outros.

De acordo com Pariser (2012), esse fenômeno estabelece três dinâmicas ainda não vistas na relação do homem com a informação: a primeira diz que cada pessoa está sozinha na sua “bolha”, pois o filtro agiria como uma força que nos repele de outras pessoas e, consequentemente, de outros ideais e pensamentos; a segunda é que o “filtro-bolha” é invisível, sendo impraticável, neste caso, compreender as suposições que ele cria sobre cada indivíduo; e a terceira dinâmica observada pelo teórico e ativista é que não escolhemos entrar nas “bolhas” geradas por esses filtros, pois, diferente da televisão, que basta desligá-la para não ter acesso a uma informação julgada como enviesada, no ciberespaço a relação do sujeito com a informação acaba por ser pulverizada e, assim, somente se isolando de todo o ciberespaço seria possível evitar o acesso a esse conteúdo curado por filtros.

Percebe-se que, nesse contexto, acontece uma perigosa e (não) intencional consequência que implica em os sujeitos não serem expostos às informações que poderiam desafiar ou ampliar sua visão de mundo (NEJM, 2012). Desse modo, a mediação algorítmica, já há algum tempo, tem sido um caminho utilizado pelas plataformas e empresas da Web – com destaque para as “Big Techs” – mediante à proposta de fornecer serviços sob medida de acordo com os gostos pessoais do usuário.

Para tanto, os filtros garantem que o conteúdo oferecido para cada pessoa seja personalizado de acordo com os rastros de suas atividades online. Segundo Pinto e Moraes (2020), os cliques, curtidas e visualizações são o tempo todo captados por algoritmos invisíveis, os quais traçam um perfil com base nessas informações e determinam o conteúdo a ser oferecido. Trata-se, portanto, da personalização, ou seja, um conjunto de conteúdo seletivamente direcionado para um indivíduo em específico de modo que seu rol de informações represente com grande probabilidade seus gostos pessoais anteriormente compreendidos pelos algoritmos, o que passou a ser explorado atualmente como “conteúdo relevante” por alguns serviços de streaming como Netflix e Spotify.

Embora a ação dos filtros tenha sido observada nas páginas de resultados dos mecanismos de busca pelo autor, em um artigo posterior, Pariser (2015) assume que atualmente o efeito “filtro-bolha” estaria aplicado aos fluxos de informação em sites de redes sociais, atuando diretamente na filtragem da informação sobre os conteúdos que circulam ou deixam de circular nesses espaços. Particularmente no caso do Facebook, o autor pontua que os algoritmos têm agido de forma a filtrar informações mediante a interesses políticos, encorajando, portanto, a manutenção de bolhas na plataforma em espectros politizados.

Nesse sentido, considera-se que a posição político-partidária de um usuário do Facebook é variável definidora sobre os conteúdos das publicações que ele passará a receber no seu “feed de notícias” dentro da plataforma.

Sim, usar o Facebook significa que você tenderá a ver significativamente mais as notícias que são populares entre as pessoas que compartilham de suas convicções políticas. Ocorre um “efeito de filtro-bolha” real e cientificamente significativo – particularmente, o algoritmo do feed de notícias do Facebook tenderá a amplificar notícias que favorecem os políticos que você apoia. (PARISER, 2015, não paginado, tradução nossa).

 

Observar tal efeito por esse viés permite lançar uma reflexão sobre o papel do algoritmo no âmbito desse processo. De acordo com Pariser (2015), talvez o algoritmo não seja o protagonista dessa discussão, e sim as relações que os sujeitos estabelecem com outros indivíduos em rede. Isto é: o que vai definir que tipo de informação ou notícia o usuário terá acesso será, na verdade, os vínculos de amizade que ele mantém na plataforma e que, prioritariamente, compartilham consigo convicções e posicionamentos políticos próximos.

Esse efeito [do “filtro-bolha”] é menor do que você imagina (e menor do que eu imaginava). Em média, você tem cerca de 6% de probabilidade a menos de ver conteúdo que favorece o outro espectro político. Quem é seu amigo é muito mais importante do que o algoritmo. (PARISER, 2015, não paginado, tradução nossa).

 

Todavia, para Bruns (2019a), o “filtro-bolha” de Pariser (2012) configura-se, diferentemente de um conceito sólido passível de investigações rigorosas, como uma observação bastante particular que não se reflete no mundo real, gerando, portanto, dificuldades para ser comprovada em pesquisas científicas que buscam encontrar a existência ou a manutenção de “filtros-bolhas” no contexto das relações sociais entre os indivíduos.

Pariser falha amplamente em fornecer uma definição clara para o conceito de “filtro-bolha”; permanece vago e fundado em anedotas. Consequentemente, isso gerou problemas significativos para pesquisas acadêmicas que procuraram verificar empiricamente a existência generalizada de bolhas de filtro no contexto da vida real além de observações anedóticas. (BRUNS, 2019a, p. 2, tradução nossa).

 

Um conceito muito próximo ao de “filtro-bolha” é o de “câmaras de eco”, trazido originalmente por Sunstein (2001). Todavia, dada sua aproximação, ambos os conceitos apresentam uma confusão terminológica que dificulta sua aplicação em pesquisas científicas mais rigorosas. Bruns (2019a, p. 3, tradução nossa) ainda observa que o problema fundamental para ambos os conceitos é a sua “falta de robustez nas definições”, visto que normalmente as pesquisas que se empenham em investigar tal fenômeno induzem seus resultados a confirmar a existência ou manutenção desse efeito nos ambientes digitais.

Retomando o que Pariser (2015) assume sobre o papel dos vínculos que os indivíduos criam com o outro nas mídias sociais frente a algoritmização dos dados pelas plataformas, Bruns (2019b) assimila uma breve diferença entre o “filtro bolha” e a “câmara de eco”: enquanto que o primeiro se estabelece como fenômeno diante da vontade dos indivíduos de se comunicarem preferencialmente com seus semelhantes (no sentido de convicções e forma de pensar), como comentários em publicações, marcações de perfis etc.; o segundo ocorre na opção do sujeito de se conectar preferencialmente com seus semelhantes, por exemplo, ao fazer amizades no Facebook, criar grupos no WhatsApp, seguir determinados perfis no Twitter etc.

 

5 CONSIDERAÇÕES FINAIS

 

Para se compreender o movimento da algoritmização na Rede, assim como suas relações empreendidas a luz da mediação algorítmica, da filtragem da informação e das suas influências para com o “filtro-bolha”, é importante delimitar a discussão e análise em trabalhos nessa temática para um locus de investigação observável, onde seja possível analisar, principalmente, as contribuições e influências desse processo algorítmico nos fluxos e controle de informação, buscando construir associações desse fenômeno com as realidades informacional, social, cultural e política da sociedade.

A modulação algorítmica, como vista, representa um papel de protagonista nos processos de filtragem da informação, servindo como um elemento ou categoria de análise que permite compreender a relação do sujeito com a informação curada, como indivíduo ou em pares, e com a própria arquitetura da plataforma. Dado isso, a causa/consequência que os filtros e as bolhas ‒ ou sua junção “filtro-bolha” ‒ parecem engendrar nos fluxos de informação que se prevalecem entre sujeito e informação na Internet, considerando, também, todos os próprios indivíduos, elementos e instituições que circundam esse contexto, permitem que se discuta o fenômeno na CI no âmbito do conceito de regime de informação, um passo ainda a ser dado no sentido deste estudo.

 


 

REFERÊNCIAS

 

ARAÚJO, C. A. A. O que é ciência da informação?. Informação & Informação, Londrina, v. 19, n. 1, p. 1-30, jan./abr. 2014. Disponível em: http://dx.doi.org/10.5433/1981-8920.2014v19n1p01. Acesso em: 27 jun. 2021.

 

BARGER, C. O estrategista em mídias sociais. São Paulo: DVS, 2013.

 

BRUNS, A. Filter bubble. Internet Policy Review, v. 8, n. 4, p. 1-14, Nov. 2019a. Disponível em: https://doi.org/10.14763/2019.4.1426. Acesso em: 04 set. 2021.

 

BRUNS, A. Echo chambers? Filter bubbles? What even are they?. In: BRUNS, A. Are filter bubbles real?. Cambridge: Polity, 2019b. E-book.

 

BUCKLAND, M. K. Information as thing. Journal of the American Society for Information Science, v. 45, n. 5, p. 351-360, 1991.

 

CAPURRO, R.; HJORLAND, B. O conceito de informação. Perspectivas em Ciência da Informação, v. 12, n. 1, p. 148-207, jan./abr. 2007. Disponível em: http://portaldeperiodicos.eci.ufmg.br/index.php/pci/article/view/54. Acesso em: 27 jun. 2021.

 

CARIBÉ, J. C. R. Algoritmização das relações sociais em rede, produção de crenças e construção da realidade. 2019. 151 p. Dissertação (Mestrado em Ciência da Informação) Programa de Pós-Graduação em Ciência da Informação, Universidade Federal do Rio de Janeiro, Instituto Brasileiro de Informação em Ciência e Tecnologia, Rio de Janeiro, 2019. Disponível em: https://ridi.ibict.br/handle/123456789/1040. Acesso em: 27 jun. 2021.

 

CASTELLS, M. A galáxia da Internet: reflexões sobre a Internet, os negócios e a sociedade. Tradução: Maria Luiza X. de A. Borges. Rio de Janeiro: Zahar, 2003.

 

DELEUZE, G. Post-scriptum sobre as sociedades de controle. In: DELEUZE, G. Conversações: 1972-1990. São Paulo: 34, 1992. p. 219-226.

 

FAVA, G. P. O efeito filtro bolha: como dispositivos de vigilância digital convertem usuários em produtos. 2015. 159 p. Dissertação (Mestrado em Comunicação e Sociedade) Programa de Pós-Graduação em Comunicação, Universidade Federal de Juiz de Fora, Juiz de Fora, 2015. Disponível em: http://repositorio.ufjf.br:8080/jspui/handle/ufjf/1512. Acesso em: 06 set. 2021.

 

FERREIRA, R. S. A Sociedade da Informação como sociedade de disciplina, vigilância e controle. Información, Cultura y Sociedad, 2014.

 

FOUCAULT, M. O panoptismo. In: FOUCAULT, M. Vigiar e punir: nascimento da prisão. Lisboa: Edições 70, 2013. E-book.

 

FUCHS, C. Web 2.0, presumption, and surveillance. Surveillance & Society, v. 8, n. 3, p. 288-309, 2011. Disponível em: https://doi.org/10.24908/ss.v8i3.4165. Acesso em: 06 set. 2021.

 

JOHNSON, S. Emergência: a dinâmica de rede em formigas, cérebros, cidades e softwares. Tradução: Maria Carmelita Pádua Dias. Rio de Janeiro: Zahar, 2003.

 

JOLER, V.; PETROVSKI, A. Immaterial labour and data harvesting. Share Lab, [online], 21 ago. 2016. Disponível em: https://labs.rs/en/facebook-algorithmic-factory-immaterial-labour-and-data-harvesting/. Acesso em: 27 jun. 2021.

 

LÉVY, P. Cibercultura. São Paulo: Ed. 34, 1999.

 

LOBO, E.; MORAIS, J. L. B. de.; NEMER, D. Democracia algorítmica: o futuro da democracia e o combate às milícias digitais no Brasil. Culturas Jurídicas, v. 7, n. 17, p. 255-276, maio/ago. 2020. Disponível em: https://periodicos.uff.br/culturasjuridicas/article/view/45443. Acesso em: 27 jun. 2021.

 

MANZANO, J. A. N. G.; OLIVEIRA, J. F. de. Algoritmos: lógica para desenvolvimento de programação de computadores. 28 ed. São José dos Campos: Érica, 2018.

 

MARTINO, L. M. S. Teoria das mídias digitais: linguagens, ambientes e redes. Petrópolis: Vozes, 2014.

 

MAY, T. Pesquisa social: questões, métodos e processos. São Paulo: Artmed, 2004.

 

MEIRELES, A.V. Algoritmos e autonomia: relações de poder e resistência no capitalismo de vigilância. Opinião Pública [online]. 2021, v. 27, n. 1

 

MOROZOV, E. Big Tech: a ascensão dos dados e a morte da política. São Paulo: Ubu, 2018.

 

NEGROPONTE, N. Less is more. In: NEGROPONTE, N. Being digital. London: Hodder & Stoughton, 1995. p. 149-159.

 

NEJM, R. Potencialidades e limites das tecnologias na promoção dos direitos humanos de crianças e adolescentes. In: RIBEIRO, J. C.; FALCÃO, T.; SILVA, T. (org.). Mídias sociais: saberes e representações. Salvador: Edufba, 2012. p. 249-269. Disponível em: https://repositorio.ufba.br/ri/handle/ri/16717. Acesso em: 27 jun. 2021.

 

NEVES, B. C. Strategist librarian on social media: conceptual approach and possibilities of digital marketing in public libraries. Informação & Sociedade, João Pessoa, v. 28, n. 3, p. 323-337, set./dez. 2018. Disponível em: https://periodicos.ufpb.br/index.php/ies/article/view/39203. Acesso em: 15 jun. 2021.

 

PARISER, E. Did Facebooks big study kill my filter bubble thesis?. Wired, May 7th, 2015. Não paginado. Disponível em: https://www.wired.com/2015/05/did-facebooks-big-study-kill-my-filter-bubble-thesis/. Acesso em: 05 set. 2021.

 

PARISER, E. O filtro invisível: o que a Internet está escondendo de você. Rio de Janeiro: Zahar, 2012.

 

PINTO, D. J. A.; MORAES, I. As mídias digitais como ferramentas de manipulação de processos eleitorais democráticos: uma análise do caso Brexit. Revista de Estudios Sociales, [Bogotá], n. 74, p. 71-82, [oct.] 2020. Disponível em: https://doi.org/10.7440/res74.2020.06. Acesso em: 27 jun. 2021.

 

RECUERO, R. Introdução à Análise de Redes Sociais online. Salvador: Edufba, 2017.

 

RÜDIGER, F. As teorias da cibercultura: perspectivas, questões e autores. 2. ed. Porto Alegre: Sulina, 2013.

 

SANTOS NETO, J. A. dos; ALMEIDA JÚNIOR, O. F. de. O caráter implícito da mediação da informação. Informação & Sociedade, João Pessoa, v. 27, n. 2, p. 253-263, maio/ago. 2017. Disponível em: https://periodicos.ufpb.br/ojs2/index.php/ies/article/view/29249. Acesso em: 27 jun. 2021.

 

SCHNEIDER, M.; RAMOS, M.; CARVALHO, P. Estudo sobre algoritmos em campanhas eleitorais: análise com Iramuteq. In: ENCONTRO NACIONAL DE PESQUISA EM CIÊNCIA DA INFORMAÇÃO, 20., 2019, Florianópolis. Anais [...]. Florianópolis: Universidade Federal de Santa Catarina, 2019. Não paginado. Disponível em: https://conferencias.ufsc.br/index.php/enancib/2019/paper/view/1100. Acesso em: 27 jun. 2021.

 

SCHONS, C. H. O volume de informações na Internet e sua desorganização: reflexões e perspectivas. Informação & Informação, Londrina, v. 12, n. 1, jan./jun. 2007, não paginado. Disponível em: http://dx.doi.org/10.5433/1981-8920.2007v12n1p50. Acesso em: 06 set. 2021.

 

SEAVER, N. Algorithms as culture: some tactics for the ethnography of algorithmic systems. Big Data & Society, v. 4, n. 2, p. 1-12, July/Dec. 2017. Disponível em: https://doi.org/10.1177%2F2053951717738104. Acesso em: 27 jun. 2021.

 

SILVEIRA, S. A. da. A noção de modulação e os sistemas algorítmicos. Paulus, São Paulo, v. 3, n. 6, p. 17-26, jan./jul. 2019. Disponível em: https://fapcom.edu.br/revista/index.php/revista-paulus/article/view/111. Acesso em: 27 jun. 2021.



[1] Mestrando em Ciência da Informação pelo Programa de Pós-Graduação em Ciência da Informação da Universidade Federal da Bahia (PPGI-UFBA). MBA em Gestão Pública pelo Centro Universitário Leonardo da Vinci (Uniasselvi). Bacharel em Biblioteconomia e Documentação pela UFBA. Bibliotecário-Documentalista da UFBA. Membro do LTI Digital UFBA/CNPq.

[2] Doutora em Educação pela Universidade Federal da Bahia (UFBA). Pós-Doutora em Ciência da Informação (UNB). Docente do Instituto de Ciência da Informação da UFBA (ICI-UFBA). Pesquisadora Líder do LTI Digital UFBA/CNPq. E-mail: barbaran@ufba.br.

[3] O panopticonfoi originalmente concebido pelo filósofo inglês Jeremy Bentham por volta de 1785.