Black skin, white algorithms: information and racism in socio-technical networks
DOI:
https://doi.org/10.18617/liinc.v18i2.6043Keywords:
Algorithmic Racism, Artificial Intelligence, Information Ethics, AlgorithmsAbstract
This paper aims to analyse the racist biases present in socio-technical networks, especially those present in algorithms, bringing it closer to ethical debates in information science, from the methodological approach of literature review. Discriminatory racial biases have proved to be another way of reinforcing inequalities that already exist in society insofar as they corroborate racism that starts to take the form of algorithmic racism. Racism is understood as a fundamental structure of society and has a fundamental role in capitalism which is now configured as data capitalism. Consequently, it reflects on the way technological tools are developed. In this way, then, software can act to deepen inequalities and its biases are masked by the belief in technological neutrality. It is concluded that, despite not being the only form of discrimination present in socio-technical networks, algorithmic racism plays an important role in maintaining racial inequalities in a feedback relationship. Finally, possible elements are presented that aim to change the order present in the algorithms. These elements aim to bring more equity and responsibility in the process of their development
References
ALMEIDA, Silvio, 2019. Racismo Estrutural. São Paulo: Sueli Carneiro; Pólen.
BAUMAN, Zygmunt, 2010. Capitalismo parasitário e outros temas contemporâneos. Rio de Janeiro: Jorge Zahar Ed.
BENJAMIN, Ruha, 2019. Race After Technology: Abolitionist Tools for the New Jim Code. [livro eletrônico] Medford, MA: Polity.
BEZERRA, A. C., ALMEIDA, M. A. Rage Against the Machine Learning: A Critical Approach to the Algorithmic Mediation of Information. Brazilian Journal of Information Science: Research Trends, vol. 14, nº 2 - abr-Jun, junho de 2020, p. 06-23, doi:10.36311/1981-1640.2020.v14n2.02.p6.
BRUNO, Fernanda, 2009. Mapas de crime: vigilância distribuída e participação na cibercultura. Revista da Associação Nacional dos Programas de Pós-Graduação em Comunicação | E-compós. [em linha] Brasília, v.12, n.2, maio/ago. [Acesso em 2 de junho de 2022]. Disponível em: https://www.e-compos.org.br/e-compos/article/view/409.
CAPURRO, Rafael, 2019. Enculturaging Algorithms. In: Proceedings of the International Conference: Artificial Intelligence & Regulation, LUISS, Rome. [Acesso em 20 julho 2022]. Disponível em: https://link.springer.com/article/10.1007/s11569-019-00340-9.
CAPURRO, Rafael, 2001. Ética para provedores e usuários da informação. In: Orgs. Anton Kalb, Reinhold Esterbauer e Hans-Walber Ruckenbauer. Cibernética – Responsabilidade em mundo interligado pela rede digital. São Paulo: Loyola.
DELEUZE, Gilles, 1992. Post-sciptum sobre as sociedades de controle. In: DELEUZE, Gilles. Conversações: 1972-1990. Rio de Janeiro: Editora 34.
FANON, F, 2020. Pele negra, máscaras brancas. São Paulo: Ubu.
FOUCAULT, Michel, 1977. Vigiar e Punir: História da Violência nas Prisões. Petrópolis: Editora Vozes.
FRASER, N.; JAEGGI, R, 2020. O capitalismo em debate: uma conversa na teoria crítica. São Paulo: Boitempo.
G1 Rio, 2019. Sistema de reconhecimento racial da PM do RJ falha, e Mulher é detida por engano. G1 Rio [em linha]. 11 julho 2019. [Acesso em 13 junho 2022]. Disponível em: https://g1.globo.com/rj/rio-de-janeiro/noticia/2019/07/11/sistema-de-reconhecimento-facial-da-pm-do-rj-falha-e-mulher-e-detida-por-engano.ghtml.
GONZÁLEZ DE GÓMEZ, Maria Nélida, 2012. Regime de informação: construção de um conceito. Informação & sociedade: estudos, João Pessoa, v. 22, n. 3, p.43-60, set/dez. [Acesso em 20 julho 2022]. Disponível em: https://www.brapci.inf.br/_repositorio/2015/12/pdf_3c42553162_0000011948.pdf.
JEE, Charlotte, 2019. London police’s face recognition system gets it wrong 81% of the time. MIT Technology Review [em linha]. 4 julho 2019. [Acesso em 13 junho 2022]. Disponível em: https://www.technologyreview.com/2019/07/04/134296/london-polices-face-recognition-system-gets-it-wrong-81-of-the-time/.
KILOMBA, Grada, 2020. Memórias da plantação: episódios de racismo cotidiano. Jess Oliveira. (trad.). Rio de Janeiro: Cobogó.
LOSURDO, Domenico, 2015. A luta de classes: uma história política e filosófica. São Paulo: Boitempo.
MARX, Karl; ENGELS, Friedrich, 2007. A ideologia alemã. São Paulo: Boitempo.
MOROZOV, Eugene, 2015. Digital Technologies And The Future Of Data Capitalism. Social Europe. [em linha] 23 junho 2015. [Acesso em 20 julho 2022]. Disponível em: https://socialeurope.eu/digital-technologies-and-the-future-of-data-capitalism.
NOBLE, Safyia Umoja, 2021. Algoritmos da Opressão: como o Google fomenta e lucra com o racismo. Santo André: Editora Rua do Sabão.
NUNES, Pablo; SILVA, Mariah Rafaela; OLIVEIRA, Samuel R. de, 2022. Um Rio de câmeras com olhos seletivos: uso de reconhecimento facial pela polícia fluminense. Rio de Janeiro: CESeC. [Acesso em 14 junho 2022]. Disponível em: https://opanoptico.com.br/wp-content/uploads/2022/05/PANOPT_riodecameras_mar22_0404b.pdf.
O’NEIL, Cathy, 2020. Algoritmos de destruição em massa: como o big data aumenta a desigualdade e ameaça à democracia. Santo André: Editora Rua do Sabão.
PASQUALE, Frank, 2015. Digital Reputation in an Era of Runway Data. In: PASQUALE, Frank. The Black Box Society: The Secret Algorithms that Control Money and Information. Cambridge: Harvard University Press.
SALO, Jackie, 2020. Black man wrongfully arrested after facial recognition software ‘flaw’. New York Post.[em linha]. 24 junho 2020 [Acesso em 13 junho 2022]. Disponível em: https://nypost.com/2020/06/24/man-wrongfully-arrested-after-facial-recognition-software-flaw/.
SILVA, Tarcizio da, 2022. Racismo algorítmico: inteligência artificial e discriminação nas redes digitais. [livro eletrônico]. São Paulo: Edições Sesc SP.
VAN DIJCK, José, 2014. Datafication, dataism and dataveillance: Big Data between scientific paradigm and ideology. Surveillance & Society, v. 12, n. 2, p. 197-208. [Acesso em 20 julho 2022]. Disponível em: https://www.academia.edu/26648535/Datafication_dataism_and_dataveillance_Big_Data_between_scientific_paradigm_and_ideology.
YESHIMABEIT, M.; TRAUB, A., 2021. Data capitalism and Algorithmic Racism. Paper Knowledge . Toward a Media History of Documents. [Acesso em 14 junho 2022]. Disponível em: https://www.demos.org/sites/default/files/2021-05/Demos_%20D4BL_Data_Capitalism_Algorithmic_Racism.pdf.
ZUBOFF, Shoshana, 2018. Big other: capitalismo de vigilância e perspectivas para uma civilização de informação. In: BRUNO, Fernanda. Tecnopolítica da vigilância: perspectivas da margem. São Paulo: Boitempo, p. 17-68.
Downloads
Published
Issue
Section
License
Copyright (c) 2022 Arthur Coelho Bezerra, Camila Mattos da Costa

This work is licensed under a Creative Commons Attribution 4.0 International License.
Authors who publish with this journal agree to the following terms:
Authors retain copyright and grant Liinc em Revista the right of first publication with the work simultaneously licensed under a Creative Commons Attribution 4.0 International License.
The authors have permission and are encouraged to deposit their manuscripts and versios of record (VoR) in their personal web pages or institutional repositories, generic repositories etc., before (pre-print) or after (post-print) the publication in Liinc em Revista, according to its open access depositing policy registered in the Directory of Editorial Policies of Brazilian Journals (DIADORIM), kindly providing a link to the article published on Liinc's website.
Liinc em Revista, published by Instituto Brasileiro de Informação em Ciência e Tecnologia, is licensed under a Creative Commons Attribution 4.0 International License – CC BY 4.0