NAVEGAR É PRECISO, VIVER NÃO É PRECISO
ética intercultural da informação para transitar em tempos de cultura algorítmica
Camila Costa[1]
Instituto EthikAI
camilamcta@gmail.com
______________________________
Resumo
Este artigo explora a necessidade de desenvolvimento de uma ética intercultural da informação no contexto da cultura algorítmica. À medida que a tecnologia continua a avançar e os algoritmos desempenham um papel cada vez mais significativo nas vidas humanas, é crucial considerar as implicações éticas desses sistemas a partir da pluralidade de perspectivas, culturas, realidades socioeconômicas e de gênero e raça. A partir do método indutivo-dedutivo, a abordagem metodológica é a revisão não sistemática da literatura. Ao examinar aspectos da cultura algorítmica para entender melhor os possíveis preconceitos e desafios da tomada de decisões por parte de sistemas algorítmicos resultantes da extração de dados em massa e do colonialismo de dados. Esta pesquisa visa contribuir para o desenvolvimento de uma abordagem mais inclusiva e equitativa à cultura algorítmica a partir da lente da ética intercultural da informação. Tal abordagem inclusiva e equitativa da cultura algorítmica pode ajudar a resolver os preconceitos culturais e evidenciar vieses nos processos de tomada de decisão automatizada. Ao considerar diferentes perspectivas, podemos esforçar-nos pela criação de algoritmos mais justos, promovendo a igualdade de oportunidades e resultados para indivíduos de diferentes origens. Esta pesquisa também pretende lançar luz sobre a necessidade de algoritmos culturalmente sensíveis que respeitem e protejam os direitos de privacidade e dados individuais em várias culturas. Tais reflexões críticas são feitas principalmente a partir dos problemas éticos provocados por algoritmos na cultura algorítmica.
Palavras-chave: cultura algorítmica; extração massiva de dados; ética intercultural da informação.
NAVIGARE NECESSE; VIVERE NON EST NECESSE
intercultural Information Ethics to navigate in times of algorithmic culture
Abstract
This paper explores the need for developing intercultural information ethics in the context of algorithmic culture. As technology continues to advance and algorithms play an increasingly significant role in our lives, it is crucial to consider the ethical implications of these systems from a cross-cultural perspective. The methodological approach is a non-systematic literature review. By examining how different cultures perceive and value information, we can better understand algorithmic decision-making’s potential biases and challenges from massive data extraction and data colonialism. This research aims to contribute to developing a more inclusive and equitable approach to algorithmic culture by addressing the debate on intercultural information ethics. This inclusive and equitable approach to algorithmic culture can help address cultural biases in automated decision-making processes. By considering diverse perspectives, we can strive for fair and unbiased algorithms, promoting equal opportunities and outcomes for individuals from different cultural backgrounds. This research can also shed light on the need for culturally sensitive algorithms that respect and protect individual privacy and data rights across various cultures. These critical reflections are mainly based on the ethical problems caused by algorithms in algorithmic culture.
Keywords: algorithmic culture; massive data extraction; intercultural information ethics.
NAVIGARE NECESSE; VIVERE NON EST NECESSE
ética intercultural de la información para navegar en tiempos de cultura algorítmica
Resumen
Este artículo explora la necesidad de desarrollar una ética intercultural de la información en el contexto de la cultura algorítmica. A medida que la tecnología sigue avanzando y los algoritmos desempeñan un papel cada vez más significativo en las vidas humanas, es crucial considerar las implicaciones éticas de estos sistemas desde una pluralidad de perspectivas, culturas, realidades socioeconómicas y género y raza. Basado en el método inductivo-deductivo, el enfoque metodológico es una revisión bibliográfica no sistemática. Examinando aspectos de la cultura algorítmica para comprender mejor los posibles sesgos y desafíos de la toma de decisiones por parte de los sistemas algorítmicos resultantes de la extracción masiva de datos y el colonialismo de datos. Esta investigación pretende contribuir al desarrollo de un enfoque más inclusivo y equitativo de la cultura algorítmica desde la óptica de la ética intercultural de la información. Este enfoque inclusivo y equitativo de la cultura algorítmica puede ayudar a abordar los prejuicios culturales y poner de relieve los sesgos en los procesos automatizados de toma de decisiones. Al tener en cuenta diferentes perspectivas, podemos esforzarnos por crear algoritmos más justos, que promuevan la igualdad de oportunidades y resultados para las personas de diferentes orígenes. Esta investigación también pretende arrojar luz sobre la necesidad de algoritmos culturalmente sensibles que respeten y protejan la privacidad individual y los derechos de los datos en diversas culturas. Estas reflexiones críticas se hacen principalmente a partir de los problemas éticos causados por los algoritmos en la cultura algorítmica.
Palabras clave: cultura algorítmica; extracción masiva de datos; ética intercultural de la información.
1 INTRODUÇÃO
Há 20 anos, navegar na internet ocupava um período determinado do dia. Hoje, somos navegados pelas redes sociotécnicas o tempo todo. Por exemplo, esta manhã, ao acordar, liguei meu smartphone. Meu celular sabe quando me levanto e quando vou para a cama. Ele sabe quantos passos eu fiz ontem e saberá amanhã. Ajuda-me a tomar decisões diárias, o que é bom, eu não nego. Contudo, é também porque é bom e porque é ubíquo, ou seja, está presente em todos os momentos, que devemos pensar criticamente sobre a cultura algorítmica a partir das lentes da ética intercultural da informação. Quero dizer: não é apenas porque eu ligo meu telefone; é precisamente porque muitas pessoas fazem o mesmo em diferentes partes do planeta. Ninguém está sozinho e são poucos os que conseguem viver fora da relação com sensores ligados às tecnologias da informação e comunicação (TICs) somados aos muitos dispositivos de tecnologias orientadas para vigilância.
E todos os dados produzidos na relação com tais sensores acaba por servir para oferta de conteúdo dirigida (publicidade, conteúdo político etc) e também afeta a tomada de decisões em diversos níveis, inclusive por parte de Estados e nações. Corporações transnacionais como as big techs, mas também aquelas que chamo de midi e mini techs – empresas médias e pequenas do ramo da tecnologia – acumulam riqueza com base na economia de dados. Crianças são educadas para viver em um mundo hiperconectado. A Internet está quase em toda parte. As pessoas podem sentir o impacto mesmo em lugares onde ainda não está completamente instaurada como, por exemplo, nos conflitos que envolvem a extração de minérios para produção de itens eletrônicos ou no gasto de recursos naturais para resfriamento de processadores. Até os povos indígenas isolados são impactados pela instalação de antenas da Starlink na Amazônia[2].
Este artigo objetiva debater os desafios da vida contemporânea e daquilo que pode ser entendido por cultura algorítmica a partir da ética intercultural da informação. Dito de outra maneira, o interesse central deste estudo é propor reflexões sobre como a cultura algorítmica tem afetado a vida humana na atualidade. O método utilizado é o indutivo-dedutivo e a abordagem metodológica é uma revisão não sistemática da literatura[3].
O surgimento de novas formas de organização social e mediação algorítmica exigem um diálogo intercultural etéreo de modo a conceder mais liberdade de informação e comunicação (Capurro, 2016). A liberdade de pensamento deve estar no centro da construção da ética intercultural da informação. Neste sentido, a ética intercultural da informação relaciona-se com a reflexão sobre as possibilidades e a realização da liberdade humana no contexto da Internet global, bem como a troca, combinação e utilização desta informação no meio da comunicação transmitida digitalmente (Capurro, 2001). Significa lidar com questões descritivas e críticas em diferentes culturas e tempos de modo a favorecer o crescimento da ética intercultural da informação em prol do bem-estar coletivo. Os tópicos estudados pela ética da informação incluem privacidade, identidade, justiça, guerra cibernética e sociedade de vigilância. Também aborda os impactos econômicos e políticos da informação tecnológica (Capurro, 2013), ou seja, está diretamente ligada aos temas abordados neste trabalho.
Cultura algorítmica é definida por Striphas (2015, p. 396) como o “[...] envolvimento do pensamento humano, conduta, organização e expressão na lógica de grandes dados (big data) e computação em larga escala, uma medida que altera a forma como a categoria cultura tem sido praticada, vivida e compreendida”.
As críticas estabelecidas aqui não objetivam impedir que o fluxo de dados na cultura algorítmica, mas evidenciar os agenciamentos por trás dele de modo a favorecer a criação de um entendimento coletivo de bem-estar comum no desenvolvimento e utilização de sistemas algorítmicos complexos. Busca-se ainda apontar que, para além das novas formas de responsabilização, os governos e as corporações devem manter os mesmos padrões de transparência que os demais membros da sociedade. Deve-se redefinir a utilização justa ou desleal da informação, mudar o estado atual da vigilância e assegurar que as decisões tomadas por ou dentro das redes sociotécnicas sejam não discriminatórias.
Mais do que soluções fechadas, estas reflexões visam ajudar a repensar a centralidade dos seres humanos face à tecnologia no capitalismo de hoje. Além da introdução e das considerações finais, este artigo apresenta duas outras seções. A primeira delas O que há no Horizonte? Reflexões sobre a Ética Intercultural da Informação apresenta aspectos que buscam ressaltar a ética intercultural da informação como uma das lentes adequadas para analisar tais fenômenos na busca por justiça algorítmica e sociedades mais justas inseridas na cultura algorítmica. A segunda parte, que se intitula Vigilância e Extrativismo de Dados, apresenta debates teóricos a respeito da vigilância e do extrativismo de dados em redes sociotécnicas.
2 O QUE HÁ NO HORIZONTE? REFLEXÕES SOBRE A ÉTICA INTERCULTURAL DA INFORMAÇÃO
Jonathan Crary (2016) aponta que uma das consequências de uma nova era tecnológica é a aparente inevitabilidade histórica atribuída a grandes mudanças econômicas e aos micro fenômenos do cotidiano. Ela cria a impressão de que muitos aspectos da realidade social atual devem ser aceitos como necessários, circunstâncias inalteráveis ou fatos naturais.
Perante a falta de interesse e a incapacidade de encontrar valores e um projeto ético-político destinado a mudar o quadro histórico e construir uma sociedade mais justa e – por que não? – feliz (Baratta 1995), é difícil não cair em perspectivas pessimistas. Ainda assim tem parecido cada vez mais difícil produzir resistência à forma como o capitalismo tem moldado as relações sociais, políticas e emocionais. Ainda que formas de resistência que provocam tensão e abrem espaço para rupturas estejam distantes no horizonte, estas devem fazer parte da ética intercultural da informação.
Capurro (2016) adverte que o aspecto mais desafiador do aumento da conectividade não está relacionado com a excelente capacidade de conexão, mas com a forma como essa conexão deve ser gerenciada. O autor faz perguntas fundamentais sobre o nosso momento histórico: Todos devem estar permanentemente conectados a tudo? Quem é o proprietário de quais dados e como as informações devem ser tornadas públicas? Pode e deve ser regulamentada a utilização de dados, e, em caso afirmativo, como?
A conectividade é vista como cada vez mais necessária e imprescindível. Em outras palavras, ela é cada vez mais precisa no sentido de indispensável enquanto é vista também como precisa no sentido de calculada com rigor e com funcionamento perfeito. A interpretação diante das tecnologias como rigorosas baseia-se na ideia de que é menos humana: não erra, não tem viés e é neutra. Tais premissas são falsas, conforme poderá ser visto ao longo deste texto.
Por isso, deve-se rejeitar ideias falsas que tratam tecnologias, bancos de dados e representações algorítmicas como neutras, o que é um esforço permanente contra várias formas de opressão em redes sociotécnicas (Silva, 2022). Trata-se também de imaginar novos tipos de ferramentas emancipatórias como Ruha Benjamin (2019) lembra.
Diante de todo o processo de comodificação da vida, ainda existem algumas atitudes possíveis. Estes incluem a esperança e a confiança na sensatez e dignidade humanas, tornando o mundo um lugar mais amigável e "[...] mais hospitaleiro para a dignidade humana" (Bauman, 2012, p. 692–693).
Criar novas formas de entender e desenvolver a tecnologia o que implica uma mudança na forma como nos relacionamos com o mundo como indivíduos e como as pessoas moldam e são moldadas pela tecnologia. Isso afeta sociabilidades que são cada vez mais mediadas por dispositivos tecnológicos, impactando as relações pessoais, culturais, de mercado e socioeconômicas e o campo de vigilância (Oliveira, 2021).
As tecnologias da informação e da comunicação influenciaram profundamente as normas morais e jurídicas, como os modos de vida, no século XXI. A ética, em geral, e a ética da informação, em particular, enfrentam desafios teóricos e práticos decorrentes da diversidade de valores morais e éticos em diferentes culturas e relativos às TICs (Capurro 2014), alguns dos quais serão abordados neste trabalho. A proposta metodológica de Rafael Capurro é a ética intercultural da informação, que assume que existem diferenças nas tradições morais, ou diferentes modos de vida, bem como nas funções de outras tradições morais, ou modos diferentes de vida e sua codificação na forma de leis e normas como expressão de um ideal. Reflexões dessa ordem exigem paciência, exatamente para não perder de vista o senso crítico. Não se trata apenas de descrever as diversidades culturais, mas também de problematizar as normas subjacentes a interesses e poderes locais e globais e procurar valores, princípios e formas comuns de organização da vida comunitária. A reflexão ética deve considerar o universal sem negligenciar a singularidade das formas de vida e os fatos históricos e geográficos. Como reflexão crítica, deve problematizar, por exemplo, aspectos da justiça, da participação política e social e da proteção do ambiente (Capurro, 2014).
Isso posto, passo ao debate sobre vigilância e extrativismo de dados.
3 VIGILÂNCIA E EXTRATIVISMO DE DADOS
Desde a década de 1990, quando a Internet tornou-se cada vez mais difundida, as ideias sobre o seu potencial para interação, colaboração e partilha organizaram a gramática das redes sociotécnicas e influenciaram a dinâmica social (Silva, 2022). Enquanto alguns estudiosos demonstraram entusiasmo com a disseminação de redes sociotécnicas (Castells, 2011; Levy, 1999), outros têm demonstrado suas crescentes preocupações sobre a importância da extração maciça de dados e participação de algoritmos no cotidiano (Pasquale 2015; Zuboff 2018; 2021; Benjamin, 2019; Silva, 2021; Morozov, 2015; 2018; Van Dijck, 2014; Bezerra, 2019; 2020; Bezerra; Costa, 2022). O ponto é que é impossível permanecer indiferente a eles: os dados e os algoritmos desempenham papel cada vez mais significativo nas configurações assumidas pelo capital atualmente.
As TICs estão presentes na vida cotidiana, nos métodos científicos, nos processos industriais e nas estruturas políticas, econômicas e culturais. As mudanças tecnológicas e culturais significativas, tais como as resultantes das tecnologias da informação e da comunicação, alteram estruturas, sistemas, instituições, normas informacionais e comunicativas e tem o potencial de causar diversos tipos de crise, levantando preocupações sobre a sustentação das relações sociais. Este fenômeno abriu espaço para o surgimento de expectativas relativamente a mudanças nas relações de poder, especialmente por parte de grupos marginalizados e oprimidos (Capurro, 2010).
Em parte, a recepção otimista das redes sociotécnicas baseou-se na ideia de que elas representavam uma ferramenta indispensável para movimentos políticos não convencionais, potencializando o impacto de formas marginais de oposição, o que não demonstrou-se necessariamente ser verdade (Crary, 2022), como pode ser visto nos estudos de Noble (2018), Silva (2022), O’Neil (2020), Benjamin (2019), Silva e Varón (2021) e Buolamwini e Gebru (2018) que evidenciam os vieses racistas e sexistas presentes nas redes sociotécnicas e nos algoritmos.
A presença onipresente das tecnologias de informação e comunicação na vida social suscita preocupações essenciais sobre o aumento da vigilância, a erosão da confiança nos governos e instituições (Oliveira, 2020), violações dos direitos humanos e os preconceitos discriminatórios presentes nos algoritmos (Silva, 2022; O'Neil, 2020; Benjamin, 2019; Oliveira, 2021; Noble, 2021). O que acontece agora é uma simulação permanente da novidade que mantém as relações de controle e poder existentes (Crary, 2016). Deve-se, portanto, perguntar não apenas sobre os beneficiários da dataficação da vida, mas também refletir sobre quem recai seus aspectos negativos.
A mediação tecnológica em redes sociotécnicas não apenas tem refletido processos sociais como também produzido as estruturas sociais em que as pessoas vivem (Van Dijck, 2018), alterando profundamente padrões de vida e governança (Kalpokas, 2019).
Este momento do capitalismo pode ser entendido a partir da percepção de que um pequeno grupo de empresas de tecnologia integram verticalmente vários serviços e funções na vida cotidiana (Hill, 2019). No entanto, mais do que a integração, este sistema pode ser caracterizado por uma lógica distinta que envolve a prestação de serviços, a ligação de fornecedores de serviços e usuários em troca de dados, além da utilização de tais dados para orientar e disciplinar melhor os usuários e provedores de forma mais eficiente (Kalpokas, 2019) em configuração que José van Dijck, Poell e de Waal (2018) definem como sociedade de plataforma; Shoshana Zuboff (2018; 2021), capitalismo de vigilância; Eygene Morozov (2015); e Yeshimabeit Millner e Amy Traub (2021) chamam de capitalismo de dados. Tal momento remete a processos ligados ao colonialismo de dados (Ricaurte, 2019; Couldry; Mejias, 2019) e ao colonialismo digital (Faustino; Lippold, 2023).
O capitalismo de dados descreve um modelo econômico construído sobre a extração e comodificação de dados, bem como o uso de big data e algoritmos como um meio para alcançar a concentração e consolidação do poder de uma forma que intensifica as desigualdades como raça, classe, gênero e deficiência já existentes (e persistentes) no modo de produção capitalista (Yeshimabeit; Traub, 2021).
A quantificação do mundo por meio da estatística não é exclusiva deste momento histórico, como pode ser visto nos trabalhos de Michel Foucault (2008; 1977), mas a recolha e armazenamento de dados estavam muito próximas do monopólio estatal (Foucault, 1977), o que foi desafiado pelo modelo econômico das plataformas digitais.
Agora, a soberania do Estado para coletar e acumular dados de população, território, saúde, economia e segurança vem sendo desafiada por diferentes corporações, agências, autoridades e organizações que estão produzindo uma abundância de dados sobre indivíduos em que as interações, transações e movimentos atravessam fronteiras estatais de formas novas e complexas (Bigo; Isin; Rupert, 2017). Devido a isso, a governança por meio de algoritmos é cada vez mais evidente. Apesar de seus benefícios imediatos, tal governança pode conduzir a um regime político em que todas as decisões serão tomadas por empresas de tecnologia e burocratas estatais (Morozov, 2020).
As diversas inovações tecnológicas nas tecnologias da informação e comunicação tornaram possível transformar comportamentos e práticas sociais em dados que podem ser quantificados. Além disso, os dados e metadados resultantes deste processamento são constantemente monitorizados por empresas e governos. Estes processos são referidos por Jose Van Djick (2014) como dataficação e vigilância de dados. A organização e classificação de informações por algoritmos estão cada vez mais presentes em várias esferas da vida humana para mediar a execução de tarefas simples e complexas.
Como Eygene Morozov e Francesca Bria (2019) alertam que quem controla a produção, análise e armazenamento de mais dados terá a melhor inteligência artificial (IA), tornando o resto das pessoas, Estados e corporações dependentes dela.
As operações envolvendo dados e sua extração e análise maciça constituem "ativos de vigilância". Podem ser caracterizadas como mercadorias roubadas e contrabando, pois são tomadas sem que seja produzido uma contrapartida e sem que os titulares[4] dos dados fornecidos estejam cientes das práticas e efeitos da coleta maciça de seus dados por empresas de tecnologia (Zuboff, 2018) e Estados.
O papel dos Estados envolve o uso de seu poder extraterritorial para coletar dados de antecipação, análise e dissuasão de ameaças, moldar o ambiente estratégico em seu favor, e promover seus interesses através da circulação de bens e serviços, informação e capital. Eles também usam novas tecnologias de informação e comunicação para expandir os sistemas de comando e controle militares (Deibert; Pauly 2019) em processos de militarização do cotidiano (Graham, 2016). Espalha-se o uso de dispositivos de algorítmicos baseados nas supostas precisão e neutralidade das redes sociotécnicas e na esperança de que elas possam resolver problemas complexos.
Por trás de acordos de confidencialidade e formatos proprietários, agências governamentais e instituições privadas escondem suas ações. Ao mesmo tempo, tudo o que os cidadãos fazem nas redes sócio-técnicas é capturado num mundo que está ausente ou quase ausente no que se refere a regulamentações legais que protegem a privacidade dos indivíduos. Cada vez mais dados de usuários estão sendo coletados, mas poucos regulamentos protegem os usuários de exercer controle sobre seus dossiês digitais. As pressões de marketing estão avançando sobre os consumidores que se tornaram matérias-primas para a extração de dados. As câmeras de vigilância estão se tornando cada vez mais baratas e estão sendo incorporadas em mais locais, juntamente com mais tipos de sensores. A informação resultante de tais operações, além de uma grande quantidade de dados, resulta em perfis detalhados de usuários. Tudo isto está a esvaziar as fronteiras entre o sector público e o privado (Pasquale, 2015).
Grandes quantidades de dados sobre indivíduos são produzidos, capturados, processados e analisados. O que diferencia o big data de outras formas de extração de dados é o volume extremo de dados, sua variedade de tipos de dados e a velocidade com que esses dados são processados (Kelleher; Tierney, 2018). O processamento técnico por modelos algorítmicos exige a transformação dos dados em informação. Neste sentido, a forma como a informação é recolhida e organizada passa também a ser motivo de preocupação. O papel desempenhado pelos algoritmos responsáveis pelo processamento e análise de big data no capitalismo de dados de hoje é inegável. Conforme Didier Bigo, Engin Isin e Evelyn Ruppert (2019) apontam ao expressar que os dados só fazem sentido, ou seja, geram valor, quando a informação pode ser extraída dela.
Foucault (1977) mostra que as estatísticas desempenham um papel essencial na governança. Os modelos estatísticos sempre influenciaram a cultura e a política. Eles não surgiram apenas com o aprendizado de máquina; a aprendizagem de máquina é apenas uma nova maneira de automatizar técnicas de modelagem estatísticas já existentes (Pasquinelli; Joler, 2020). No entanto, esta é a primeira vez na história que uma quantidade tão grande de dados pode ser combinada com computadores poderosos para processá-lo, favorecendo tais ferramentas de aprendizagem de máquina (O'Neil, 2020).
A capacidade operacional das máquinas atuais – computadores, telefones e câmeras de vigilância – permite um maior controle por parte das corporações e do Estado através do desenvolvimento e uso de técnicas de aprendizagem de máquina, que podem ser entendidas como um ramo da inteligência artificial e da ciência da computação focado no uso de dados e algoritmos para imitar a maneira como os seres humanos aprendem, melhorando gradualmente sua precisão (IBM Cloud Education, 2020). O que a máquina aprende a partir do processamento de novos dados (input) alimenta de volta para a inteligência artificial da máquina para refiná-lo.
É importante ter em mente que, embora a vigilância não seja um fenômeno novo, o progresso tecnológico a melhorou consideravelmente. As torres de observação do panóptico de Bentham (Foucault, 1977) deram lugar a sistemas de câmera interligados com capacidades cada vez maiores. Hoje, eles fornecem imagens de alta resolução, gravam ruído, reconhecem rostos e alertam os operadores para atividades suspeitas (Vermeersch; De Pauw, 2017). A fronteira entre o público e o privado está a desaparecer com câmeras privadas em locais públicos e soluções algorítmicas para governança cotidiana.
Cathy O'Neil (2020) aponta que, em comparação com o cérebro humano, essas ferramentas não são tão eficientes quanto parece, porque os programas de aprendizagem de máquina, por outro lado, geralmente precisam de milhões ou bilhões de pontos de dados para criar seus modelos estatísticos de causa e efeito. Apesar das críticas como a de O’Neil e outros, persiste a tecnocrença de que são mais justos e neutros do que seres humanos.
A inteligência da máquina é treinada em vastos conjuntos de dados acumulados de maneiras que não são nem tecnicamente neutras nem socialmente imparciais. Os dados brutos não existem, pois dependem do trabalho humano, dados pessoais e comportamentos sociais que se acumulam ao longo de longos períodos de tempo através de redes extensas e taxonomias controversas (Pasquinell; Joler, 2020).
Por princípio, a exploração dos dados parece capaz de agravar a expansão da lógica capitalista neoliberal (Bigo; Isin; Ruppert, 2019). Para Paola Ricaurte (2019), a extração, armazenamento, processamento e análise de dados constituem um processo muito mais amplo que precisa ser dado uma análise decolonial, uma vez que se deve perguntar quais são as implicações do processo de colonização de dados para sociedades e indivíduos localizados nas chamadas margens econômicas e como as relações de poder subjacentes afetam comunidades que existem fora desta ordem de conhecimento. O extrativismo de dados implica tornar tudo uma fonte de dados. Nesta perspectiva, a vida não seria mais do que um fluxo contínuo de dados. As tecnologias de dados e os regimes estão onipresentes em todas as esferas da vida humana. Este processo refere-se ao colonialismo digital e de dados.
O colonialismo digital e de dados perpetua a dinâmica de poder existente ao reforçar o domínio de certos países ou corporações sobre outros. Exacerba as desigualdades entre as nações e aprofunda as divergências dentro das sociedades, uma vez que os indivíduos e as comunidades marginalizadas são ainda mais excluídos da participação e do benefício da economia digital. A colonização de dados também levanta preocupações sobre privacidade, vigilância e controle sobre informações pessoais, uma vez que os indivíduos se tornam cada vez mais vulneráveis à exploração e manipulação por aqueles que possuem os meios para extrair e controlar seus dados.
A digitalização em massa, que se expandiu com a Internet na década de 1990 e aumentou com os data centers na de 2000, disponibilizou vastos recursos de dados que são livres e não regulamentados pela primeira vez na história. Um regime de extração de conhecimento gradualmente empregou algoritmos eficientes para extrair "inteligência" dessas fontes de dados abertos, principalmente para prever o comportamento do consumidor e vender anúncios. A economia do conhecimento tornou-se uma nova forma de capitalismo, chamada capitalismo cognitivo, capitalismo de vigilância e capitalismo de dados, como mencionado anteriormente por diferentes autores. A Internet causou um excesso de informação, centros de dados maciços, microprocessadores mais rápidos e algoritmos de compressão de dados, colocando as bases para o surgimento de monopólios de inteligência algorítmica no século XXI.
O colonialismo de dados envolve não só os novos tipos de relações entre humanos que permitem a extração de dados para a comodificação (Couldry; Mejias, 2019), mas também o universo de interações humano-objeto, objeto-objeto e algoritmo-humano, levando a novas formas de colonização através de dados baseados em infra-estruturas materiais e construções simbólicas que reforçam práticas coloniais (Ricaurte, 2019). Este processo dá origem a novas formas de acumulação e valorização de dados a partir dos quais a fonte de autoridade e legitimidade pode ultrapassar as fronteiras da soberania dos Estados, produzindo efeitos internacionais. Constitui o surgimento de um espaço transnacional que enfatiza a lógica transversal da ação e transcende as distinções entre o interno e o externo, nacional e estrangeiro. (Bigo; Isin; Ruppert, 2019).
A extração e acumulação maciça de dados envolve capital econômico e cultural (Dratwa, 2017). Estão a ocorrer mudanças intensas no campo das forças produtivas, de modo a afetar a vida social como um todo. Baseia-se numa premissa de colonização que pressupõe que as regiões periféricas desejam e adotam felizmente as tecnologias ocidentais e que essas comunidades necessariamente se beneficiarão delas. (Crary, 2022). Seriam as benesses do progresso.
A racionalidade específica baseada em ideias coloniais influenciou a racionalização algorítmica, espalhou a cultura algorítmica e ampliou os processos de governança algorítmica.
A intensa integração do tempo e das atividades humanas nos parâmetros da troca eletrônica envolve o gasto de grande parte do orçamento em pesquisas dedicadas a reduzir o tempo de tomada de decisões e eliminar o tempo vazio e a contemplação (Crary, 2016), que influenciam a vida pessoal e profissional. O estabelecimento de uma ordem social mediada por dados e a comodificação da vida limitam as perspectivas de uma vida fora do regime de dados, porque estar fora significa exclusão (Ricaurte, 2019). Em certo sentido, também é importante destacar que não existe fora na medida que a colonização de territórios e mentes vai expandindo-se. Este é um momento de mudanças profundas na forma como o conhecimento e a inovação são produzidos, processados e legitimados e que afetam comunidades de modo distinto.
Após as reflexões apresentadas anteriormente, parece crucial entender o papel de governos e instituições públicas na colonização de dados internamente e em escala internacional de forma sistêmica. No entanto, a força central deste processo reside nas grandes empresas de tecnologia. O papel desempenhado por estados diz respeito ao desenvolvimento de normas jurídicas, à elaboração de políticas públicas, à utilização de sistemas de inteligência artificial para a administração pública, à contratação de serviços tecnológicos, a aquisição de produtos para fins de administração e vigilância públicas, a implementação das políticas públicas e das agendas digitais, bem como à facilitação e educação para o desenvolvimento da força de trabalho.
Os governos tornam-se os clientes importantes de empresas de serviços de IA para a tomada de decisões públicas com dados de propriedade corporativa, mas também pública. É crescente a contratação de serviços empresariais e a aquisição de produtos para vários propósitos, como ciberdefesa, vigilância, infra-estruturas de telecomunicações e transportes, cidades inteligentes e servidores, bem como agendas para o desenvolvimento digital e da força de trabalho (Ricaurte, 2019). Embora a dinâmica subjacente esteja ligada ao lucro e à concorrência entre as empresas para o mercado, o ritmo rápido de melhoria e reconfiguração de sistemas, modelos e plataformas faz parte da intensificação do controle (Crary, 2016). A vigilância e o domínio sobre os corpos, que costumavam ser exercidos principalmente no locus de instituições disciplinares como escolas, prisões, forças armadas, ou hospitais, como estudado por Michel Foucault (1977), são agora onipresentes no capitalismo de dados que absorve, registra e acumula dados sobre as atividades humanas em todos os lugares e situações. É por isso que compreender o papel de todos os tipos de atores dentro da cultura algorítmica é tão importante.
Os serviços e dispositivos digitais de hoje são viáveis devido a "uma exacerbação sem fim da desigualdade econômica e a deformação acelerada da biosfera da Terra causada pela extração de recursos e consumo de energia desnecessário" (Crary, 2022). Zigmund Bauman (2012) recorda Rosa Luxemburg, que explicou que o sistema capitalista só pode progredir se a terra estiver disponível para expansão e exploração, destruindo coisas que poderiam permitir que comunidades e grupos participassem de subsistência auto-suficiente. Ele faz isso ao destruir as condições de seu anfitrião para prosperidade ou sobrevivência. Com a degradação do meio-ambiente, restam poucos recursos para expansão do capital. Tornar o ser humano commodities a partir do extrativismo de dados é uma das muitas formas de colonização que envolvem as redes sociotécnicas.
O colonialismo de dados é colocado em um arranjo de processos, parte da epistemologia dominante que se traduz em dominação de corpos, afetos e territórios. (Ricaurte, 2019). Dados capturam processos sociais e colonizam mentes, almas, corpos e espaços (Bigo; Isin; Ruppert, 2019). Neste sentido, a inteligência algorítmica e a cultura não são apenas tecnologia; eles encarnam uma tecno-ideologia que autoriza a confusão de processos cerebrais e lógica econômica e social (Sadin, 2020).
Esta tecno-ideologia perpetua os desequilíbrios de poder e reforça as estruturas existentes de opressão. Permite extrair e explorar dados de comunidades marginalizadas, fortalecendo ainda mais a sua marginalização social. Além disso, a colonização de mentes e espaços através de dados reforça uma visão de mundo estreita que prioriza o lucro e o controle sobre o bem-estar humano e a justiça social.
Quanto mais o tempo passa, maior é a opacidade das redes (Pasquale, 2015). Por isso, a discussão política dos dados deve preocupar-se com as lutas políticas sobre a produção de dados, suas consequências, e como os dados geram novas formas de relações de poder e política em diferentes escalas interligadas (Bigo; Isin; Ruppert, 2019).
Os indivíduos colaboram na sua própria vigilância e coleta de dados ao utilizar determinados serviços disponíveis em redes sociotécnicas (Zuboff 2018, 2021; Crary, 2016). O direito à privacidade é voluntariamente cedido em troca dos benefícios recebidos (Bauman, 2013) – eu não disse que trazia conforto? –. De acordo com Jonathan Crary, a televisão colonizou arenas essenciais da vida. No entanto, o neoliberalismo exigiu uma extração de valor muito mais sistemática do tempo de televisão e, em princípio, de cada hora de vigília. Neste sentido, o capitalismo 24/7 não é simplesmente a captura contínua ou sequencial da atenção, mas também uma composição densa do tempo em camadas em que múltiplas operações ou atrações podem ser atendidas quase simultaneamente, independentemente de onde ou o que mais estamos fazendo. Os chamados dispositivos inteligentes são nomeados menos pelas vantagens que podem oferecer a um indivíduo do que pela sua capacidade de integrar seus usuários mais plenamente em suas rotinas 24/7 (Crary, 2016). Os dispositivos nos oferecem conforto, mas esse conforto tem custo muitas vezes desconhecido.
Os sistemas automatizados usam lógica algorítmica para aplicar inteligência artificial a processos pré-existentes que mudaram devido à digitalização, como a televisão, o mercado financeiro, a segurança pública e todos os outros campos onde a coleta de dados serve como fonte de capital de informação (Silva, 2022). A vida traduzida em dados é a matéria-prima da economia de vigilância, que transformou os cidadãos em utilizadores e os sujeitos em dados (Vélez, 2021). A partir da extração maciça de dados, modelos matemáticos gerenciam vários aspectos da economia, publicidade, segurança social e muitos outros campos da vida social. Eles são obscuros, difíceis de desafiar e responsabilizar e operam em grande escala para otimizar a vida de milhões de pessoas (O'Neil, 2020).
A racionalidade tecnológica tornou-se racionalização política num cenário que utiliza a privatização para redução de custos e maximização dos lucros. Nesse sentido, soluções tecnológicas são vistas como necessárias para reduzir custos e terceirizar decisões para máquinas inteligentes, muitas das quais estão intrinsecamente ligadas a sistemas de vigilância. No caso das redes sociotécnicas, a invisibilidade dos processos muitas vezes proporciona imunidade para a manutenção das desigualdades (Benjamin, 2019). Os sistemas que envolvem a inteligência artificial estão embutidos com valores políticos e estéticos racializados, manifestados na invisibilização, hiper-visibilidade e estereotipagem de sujeitos (Silva, 2022).
A coleta, análise e armazenamento maciço de dados do capitalismo de dados faz parte de uma cultura de vigilância (Lyon, 2019). A vigilância surgiu como uma forma essencial de controle para governos, empresas e indivíduos (Lyon, 2007). Para David Lyon (2013), a vigilância é um componente central da modernidade.
Como é cada vez mais barato coletar e reter dados, eles podem agora ser capturados com menos esforço em contextos com pouca ou nenhuma regulamentação legal, o que torna justificável reter o máximo possível de dados em detrimento de descartá-los. Em um mundo onde a vigilância é a norma, sua existência indica uma presença em estruturas e sistemas que fazem parte de muitas esferas da vida na sociedade. No entanto, para utilizar os dados em uma escala maciça, o mundo precisa ser dataficado (Kalpokas 2019).
Frank Pasquale (2015) argumenta que um estado de vigilância que não pode ser explicado representa uma ameaça mais significativa à liberdade do que o medo da insegurança ou do terrorismo. O autor refere-se a isso como a "erosão de uma série de liberdades" (Pasquale, 2015). O autor critica o fato de que aqueles que monitoram têm o poder de classificar os críticos do sistema como inimigos do Estado, monitorando-os assim ainda mais. De acordo com o autor, o principal dano causado pela vigilância em massa é a sua capacidade de silenciar vozes dissidentes. Esta preocupação também aparece nos trabalhos de autores como Oliveira (2020), Čas, Bellanova, Burgess, Friedewald e Peissl (2017), Solove (2008), e Véliz (2021).
Rafael Capurro (2016) aponta para a transformação do mundo em um panóptico, com maior vigilância, à medida que a economia digital perde a consciência da liberdade humana e das interações entre os mundos físico e digital.
A privacidade não é apenas um direito fundamental, mas também ajuda a garantir outros direitos e liberdades fundamentais, o equilíbrio entre o Estado e os cidadãos, o desenvolvimento da democracia, a inovação social e econômica e o exercício da autonomia individual, como Daniel Solove (2008) aponta. A privacidade é uma condição para os indivíduos se expressarem livremente. A prática de vigilância em massa é, em si mesma, um sintoma de desrespeito aos princípios democráticos (Cas et al., 2017). Para Frank Pasquale (2015), um Estado de vigilância irresponsável pode ameaçar a liberdade mais do que ameaças de segurança específicas, pois ele erode uma série de direitos, como os mencionados acima.
Carissa Véliz (2021) argumenta que um mundo sem privacidade é perigoso porque consiste em não compartilhar coisas íntimas como pensamentos, experiências, conversas e planos com os outros. Eu acrescento nossos hábitos, afeições, curiosidades e medos. Os seres humanos precisam de privacidade para relaxar das dificuldades de viver na sociedade, explorar novas ideias de forma liberada e formar suas próprias opiniões. A privacidade ajuda a nos proteger de pressões indesejadas e abusos de poder.
A privacidade deve ser percebida como um direito, não como um serviço. Como Cathy O'Neil (2020) aponta, aqueles com privilégios "são processados mais pelas pessoas, as massas, pelas máquinas", uma vez que a privacidade se torna um luxo caro disponível apenas para os ricos que podem pagar.
No entanto, a multiplicação de "projetos de vigilância governamental altamente tecnofílicos" é, de acordo com Graham, uma demonstração da "militarização da sociedade civil", ou seja, "a extensão das ideias militares de rastreamento, identificação e seleção nos espaços e meios de circulação da vida cotidiana" (Graham, 2016). Isso acontece porque os debates são muitas vezes reduzidos ao equilíbrio entre privacidade e segurança, baseado na suposição de que a vigilância em massa promovida pela dataficação da vida é a única solução para todas as ameaças. Esta dicotomia torna o discurso em torno da tentação de adotar a vigilância em massa difícil de resistir para vários atores, incluindo políticos eleitos (Čas et al. 2017).
A recolha e o processamento de dados biométricos em espaços urbanos é normalizado porque oferece benefícios e seus custos são percebidos como inofensivos (Silva, 2022). A adoção destas ferramentas torna os cidadãos transparentes e manipuláveis, ao mesmo tempo que permite aos governos e às empresas a liberdade de prosseguir os seus projetos (Morozov, 2020). Por isso, não é possível discorrer apenas dos aspectos positivos de ferramentas algorítmicas. Faz-se cada vez mais necessário evidenciar os agenciamentos políticos, econômicos e éticos da cultura algorítmica para reduzir desigualdades.
4 CONSIDERAÇÕES FINAIS
A humanidade enfrenta tempos desafiadores. As comunidades têm de lidar com os impactos das alterações climáticas, e as desigualdades sociais persistem. As promessas de desenvolvimento tecnológico continuam a ser promessas. Embora seja essencial considerar os aspectos universais desses desafios, é igualmente crucial reconhecer as experiências e perspectivas únicas das diferentes formas de vida e o contexto histórico e geográfico em que elas existem. A reflexão crítica deve aprofundar-se nas complexidades da justiça, da participação política e social e da proteção do ambiente, reconhecendo que estas questões estão interligadas e exigem soluções multifacetadas. Em última análise, é imperativo ir além das meras promessas e tomar medidas concretas para resolver estas questões urgentes para o melhoramento da humanidade e do planeta.
A reflexão ética desempenha um papel crucial na compreensão e apreciação das diversidades culturais e no questionamento das normas subjacentes que moldam os interesses e poderes locais e globais. Ao procurar valores, princípios e maneiras comuns de organizar a vida comunitária, a reflexão ética visa colmatar a lacuna entre diferentes culturas e promover a inclusão. Além disso, deve considerar a singularidade de cada forma de vida e fatores históricos e geográficos para compreender questões éticas de forma abrangente.
O uso generalizado das tecnologias de informação e comunicação na vida social suscita preocupações sobre o aumento da vigilância, erosão da confiança, violações dos direitos humanos e preconceitos discriminatórios nos algoritmos. Esta simulação constante do novo, mantendo as relações de poder existentes, é, na realidade, uma simulação permanente do velho. A questão deve ser se a dataficação da vida beneficia ou sofre dela a longo prazo, à medida que os preconceitos nos algoritmos continuam a moldar e reforçar. Outro desafio é enfrentar o colonialismo digital e de dados e esforçar-se por um futuro mais inclusivo e equitativo para alcançar a soberania digital. Em última análise, é crucial que a sociedade aborde ativamente estes desafios e trabalhe para alcançar um objetivo que priorize a equidade e o acesso igualitário à tecnologia.
Algumas tarefas permanecem para todo o exercício da cidadania: a reconstrução do sentimento de heterogeneidade para que possamos estar em solidariedade, o reconhecimento de que precisamos de ter esperança, e a reflexão de que várias formas de construir uma nova cidadania estão em andamento. Em primeiro lugar, temos de nos reinventar e assumir a nossa responsabilidade perante os usos sociais dos algoritmos. Nisto reside a importância do debate ético em torno de valores e sua reflexão sobre as ações humanas. Todos eles podem ser feitos, começando com o desenvolvimento da ética da informação intercultural.
Cidades, estados e países têm mais e mais dados, mas isso não significa que eles estejam disponíveis ou facilmente acessíveis. A presença das tecnologias da informação e da comunicação é tão generalizada e complexa que as empresas têm conseguido escapar às pressões de transparência e responsabilização. Uma ideia crítica que a ética intercultural da informação deve abordar é o fortalecimento da noção de dados pessoais como um recurso coletivo para ser usado para melhorar a vida das pessoas e não para o enriquecimento empresarial e hiper controle por parte de Estados e companhias privadas.
Navegar tornou-se cada vez mais necessário pelo conforto que pode trazer, mas sua precisão derivada do extrativismo de dados não é capaz de dar conta da complexidade da existência humana: os problemas da dataficação da vida residem também no fato de que a vida humana é complexa demais para que seja pensada apenas a partir dos dados extraídos em processos de comodificação do humano e de sua redução aos instrumentos de navegação algorítmica. Para concluir, retomo a frase de Pompeu e emprestada por Fernando Pessoa e Caetano Veloso para lembrar que navegar é preciso; viver não é preciso.
REFERÊNCIAS
BAUMAN, Zygmunt. Capitalismo Parasitário. Petrópolis: Zahar, 2010.
BAUMAN, Zygmunt; LYON, David. Vigilância Líquida. Petrópolis: Zahar, 2013.
BARATTA, Alessandro. Ética e pós-modernidade. In: KOSOVOSKY, Ester (ed.). Ética e Comunicação. Mauad, 1995. p. 113-131.
BENJAMIN, Ruha (ed.). Race After Technology: Abolitionist Tools for the New Jim Code. Medford, MA: Polity, 2019.
BEZERRA, Arthur Coelho. Teoria crítica da informação: proposta teórico-metodológica de integração entre os conceitos de regime de informação e competência crítica em informação. In: BEZERRA, Arthur; SCHNEIDER, Marco; PIMENTA, Ricardo; SALDANHA, Gustavo (ed.). iKritika: Estudos Críticos Em Informação. Rio de Janeiro: Garamond, 2019. p. 15-72.
BEZERRA, Arthur; COSTA, Camila. Pele negra, algoritmos brancos: informação e racismo nas redes sociotécnicas. Liinc em Revista, v. 18, n. 2, 2022. Disponível em: https://revista.ibict.br/liinc/article/view/6043. Acesso em: 21jun. 2024.
BIGO, Didier; ISIN, Engin; RUPPERT, Evelyn. Data Politics. In: BIGO, Didier; ISIN, Engin; RUPPERT, Evelyn (ed.). Data Politics: worlds, subjects, rights. Nova York: Routledge, 2019. p. 1-16.
BUOLAMWINI, Joy; GEBRU, Timnit. Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Conference on Fairness, Accountability and Transparency. Proceedings of Machine Learning Research, v. 81, p. 1-15, 2018. Disponível em: https://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf. Acesso em: 25 jun. 2024.
CAPURRO, Rafael. “Ética para provedores e usuários da informação.” In: KALB, Anton; ESTERBAUER, Reinhold; RUCKENBAUER, Hans-Walber (ed.). Cibernética – Responsabilidade em mundo interligado pela rede digital. São Paulo: Loyola, 2001.
CAPURRO, Rafael. Conferencia inaugural en el I Simpósio Brasileiro de Ética da Informação, João Pessoa, 2010.
CAPURRO, Rafael. Information Ethics. In: KALDIS, Byron (ed.). Encyclopedia of Philosophy and the Social Sciences, Vol. 1. Sage Publ, 2013. p. 471-473.
CAPURRO, Rafael. Cidadania na era digital (trad. Schneider e Bezerra). In: CABRAL, Adilson; CABRAL, Eula (ed.). Comunicação, Cultura, Informação e Democracia: tensões e contradições. Livro do V Encontro da Ulepicc-Brasil. Lisboa: MEDIA XXI - Publishing, Research & Consulting, 2016.
ČAS, Johann; BELLANOVA, Rocco; BURGESS, J. Peter; FRIEDEWALD, Michael; PEISSL, Walter. Introduction: surveillance, privacy and security. In: FRIEDEWALD, Michael; ČAS, Johann; BELLANOVA, Rocco; BURGESS, J. Peter; PEISSL, Walter (ed.). Surveillance, Privacy and Security: citizen's perspectives. Nova York: Routledge, 2017. p. 1-12.
CASTELLS, Manuel. A Sociedade em Rede. A Era da Informação: Economia, Sociedade e Cultura. Lisboa: Fundação Calouste Gulbenkian, 2011.
COULDRY, Nick; MEJIAS, Ulises A. Data colonialism: Rethinking big data’s relation to the contemporary subject. Television and New Media, v. 20, n. 4, p. 336-349, 2019. Disponível em: https://journals.sagepub.com/doi/abs/10.1177/1527476418796632?journalCode=tvna. Acesso em: 25 jun. 2024.
CRARY, Jonathan. 24/7: Capitalismo tardio e os fins do sono. São Paulo: Ubu Editora, 2016.
CRARY, Jonathan. Scorched Earth: Beyond the Digital Age to a Post-Capitalist World. Verso Books, 2022.
DRATWA, Jim. Foreword: Ethical Experimentations of Security and Surveillance as an Inquiry into the Open Beta Society. In: ČAS, Johann; BELLANOVA, Rocco; BURGESS, J. Peter; PEISSL, Walter (ed.). Surveillance, Privacy and Security: citizen's perspectives. Nova York: Routledge, 2017.
FAUSTINO, Deivison; LIPPOLDI, Walter. Colonialismo de Digital. Boitempo, 2023.
FOUCAULT, Michel. Vigiar e Punir: História da Violência nas Prisões. Editora Vozes, 1977.
HILL, David W. The injuries of platform logistics. Media, Culture & Society, v. 42, n. 4, p. 521-536, 2019. Disponível em: https://journals.sagepub.com/doi/10.1177/0163443719861840. Acesso em: 21 jun. 2024.
IBM Cloud Education. Machine Learning. Acesso em nov 2022. Disponível em: https://www.ibm.com/br-pt/cloud/learn/machine-learning.
KALPOKAS, Ignas. Algorithmic Governance. Politics and Law in the Post-Human Era. Palgrave Pivot Cham, 2019.
KELLEHER, John D.; TIERNEY, Brendan. Data Science. Cambridge: MIT Press, 2018.
LEVY, Pierre. Cibercultura. São Paulo: Editora 34, 1999.
LYON, David. Situating surveillance: history, technology, culture. In: BOERSMA, Kees et al. (ed.). Histories of State Surveillance in Europe and Beyond. Nova York; Londres: Routledge, 2014.
LYON, David. Surveillance studies: an overview. Cambridge: Polity Press, 2007.
LYON, David. Surveillance capitalism, surveillance culture and data politics. In: BIGO, Didier; ISIN, Engin; RUPPERT, Evelyn (ed.). Data Politics: worlds, subjects, rights. Nova York: Routledge, 2019. p. 64-76.
MOROZOV, Evgeny; BRIA, Francesca. A cidade inteligente: tecnologias urbanas e democracia. São Paulo: Ubu Editora, 2019.
MOROZOV, Evgeny. Big Tech: a ascensão dos dados e a morte da política. São Paulo: Ubu Editora, 2020.
NOBLE, Safiya Umoja. Algorithms of Oppression. NYU Press, 2018.
OLIVEIRA, Samuel R. Sorria! Você está sendo filmado!: repensando direitos na era do reconhecimento facial. São Paulo: Thomson Reuters Brasil, 2021.
O’NEIL, Cathy. Algoritmos de destruição em massa: como o big data aumenta a desigualdade e ameaça a democracia. Santo André: Editora Rua do Sabão, 2020.
PASQUALE, Frank. The Black Box Society: The Secret Algorithms that Control Money and Information. Harvard University Press, 2015.
PASQUINELLI, Matteo; JOLER, Vladan. The Nooscope manifested: AI as instrument of knowledge extractivism. AI & Soc, v. 36, p. 1263-1280, 2021. Disponível em: https://link.springer.com/article/10.1007/s00146-020-01097-6. Acesso em: 25 jun. 2024.
RICAURTE, Paola. Data Epistemologies, The Coloniality of Power, and Resistance. Television & New Media, v. 20, n. 4, p. 350-365, 2019. Disponível em: https://doi.org/10.1177/1527476419831. Acesso em: 01 jul. 2024.
SADIN, Éric. La inteligencia artificial o el desafío del siglo. Anatomía de un antihumanismo radical. Caja Negra Editora, 2020.
SILVA, Tarcizio da. Racismo algorítmico: inteligência artificial e discriminação nas redes digitais. São Paulo: Edições Sesc SP, 2022.
SOLOVE, Daniel J. Data Mining and the Security-Liberty Debate. University of Chicago Law Review, v. 74, p. 343-372, 2008. Disponível em: https://chicagounbound.uchicago.edu/uclrev/vol75/iss1/15/. Acesso em: 01 jul. 2024.
SILVA, Mariah Rafaela; VARON, Joana. Reconhecimento Facial no Setor Público e Identidades Trans: tecnopolíticas de controle e ameaça à diversidade de gênero em suas interseccionalidades de raça, classe e território. Rio de Janeiro: Coding Rights, 2021. Disponível em: https://codingrights.org/docs/rec-facial-id-trans.pdf. Acesso em: 24 jan. 2024.
STRIPHAS, T. Algorithmic culture. European Journal of Cultural Studies, v. 18, n. 4-5, p. 395-412, 2015. Disponível em: https://journals.sagepub.com/doi/10.1177/1367549415577392. Acesso em: 01 jul. 2024.
VAN DIJCK, José. Datafication, dataism and dataveillance: Big Data between scientific paradigm and ideology. Surveillance & Society, v. 12, n. 2, p. 197-208, 2014. Disponível em: https://doi.org/10.24908/ss.v12i2.4776. Acesso em: 01 jul. 2024.
VAN DIJCK, José; POELL, Thomas; DE WAAL, Martijn. The Platform Society. Oxford University Press, 2018.
VÉLIZ, Carissa. Privacidad es poder. Datos, vigilancia y libertad en la era digital. Debates, 2021.
VERMEERSCH, Hans; DE PAUW, Evelien. The Acceptance of New Security Oriented Technologies: a ‘framing’ experiment.” In: FRIEDEWALD, Michael et al. (ed.). Surveillance, Privacy and Security: citizen's perspectives. Nova York: Routledge, 2017.
YESHIMABEIT, M.; TRAUB, A. Data Capitalism and Algorithmic Racism. Paper Knowledge. Toward a Media History of Documents, 2021.
ZUBOFF, Shoshana. A Era do Capitalismo de Vigilância: a luta por um futuro humano na nova fronteira de poder. Rio de Janeiro: Intrínseca, 2021.
ZUBOFF, Shoshana. Big other: capitalismo de vigilância e perspectivas para uma civilização de informação. In: BRUNO, Fernanda (ed.). Tecnopolítica da vigilância: perspectivas da margem. São Paulo: Boitempo, 2018. p. 17-68.
[1] Doutora em Ciência da Informação pelo IBICT-UFRJ. Mestre pela Universidade Federal Fluminense.
[2] Para ver mais: https://oglobo.globo.com/brasil/noticia/2024/04/13/entenda-os-negocios-de-musk-na-amazonia-e-como-eles-ajudam-o-garimpo.ghtml.
[3] O texto é majoritariamente escrito em primeira e terceira pessoa. Contudo, em alguns momentos, utilizo o nós propositadamente. São momentos em que pretendo destacar, de alguma maneira, algo relacionado à coletividade.
[4] O titular dos dados é o indivíduo dono da informação que lhe diz respeito, segundo a Lei Geral de Proteção de Dados. Nos termos da lei, o titular dos dados é a “pessoa natural a quem se referem os dados pessoais que são objeto de tratamento” (BRASIL, 2018).