Inteligência Artificial, moderação de conteúdos no YouTube e a proteção de direitos: características, problemas e impactos políticos

Autores

DOI:

https://doi.org/10.18617/liinc.v18i2.6080

Palavras-chave:

Moderação de conteúdos, Inteligência artificial, Mídias sociais, YouTube, Governança algoritmica

Resumo

Este artigo tem como principal objetivo caracterizar o papel de sistemas de inteligência artificial na moderação de conteúdos de usuários no YouTube, seus problemas e impactos políticos, especialmente no horizonte da proteção de direitos individuais. A pesquisa utilizou o método de rastreamento de processo, baseado na coleta e análise de dados qualitativos para estabelecer relações causais e compreender como ocorre a moderação de conteúdos na plataforma. Foram analisados 79 textos dentre notas e informações publicadas pela plataforma em seu blog corporativo; documentos de políticas de moderação de conteúdos e relatórios de transparência da empresa. Os resultados demonstram que há uma crescente centralização da Inteligência Artificial (IA) no processo de moderação de conteúdo, transformando a moderação humana em um dispositivo do sistema automatizado. Isso tem gerado um crescimento substancial do número de remoções de conteúdo potencialmente nocivo que traz, por outro lado, efeitos colaterais como o aumento das violações de direitos individuais pela plataforma. Opacidade; acirramento no problema da escala; moderação guiada por princípios comerciais; falhas na captação de contexto; fragilidade nos processos de participação e accountability são outros problemas também identificados

Referências

ANANNY, Mike e CRAWFORD, Kate, 2018. Seeing without knowing: Limitations of the transparency ideal and its application to algorithmic accountability. New Media and Society, vol. 20, no. 3, p. 973–989.

BEACH, Derek, PEDERSEN, Rasmus Brun, 2013. Process-Tracing Methods. Foundations and Guidelines. Ann Arbour, University of Michigan Press.

BUNTAIN, Cody, BONNEAU, Richard, NAGLER, Jonathan e TUCKER, Joshua, 2021. YouTube Recommendations and Effects on Sharing Across Online Social Platforms. Proceedings of the ACM on Human-Computer Interaction. 5. 1-26. 10.1145/3449085. [Acesso em 24 julho 2022]. Disponível em: https://arxiv.org/abs/2003.00970.

BURROUGHS, Benjamin, 2017. YouTube Kids: The App Economy and Mobile Parenting. Social Media + Society, vol. 3 no. 2 p. 1–8.

BRIGHT, J et al. Addressing Hate Speech On Social Media: Contemporary Challenges. Paris: UNESCO, 2021.

CATH, C. et al. Artificial Intelligence and the “Good Society”: the US, EU, and UK approach. Science and Engineering Ethics, v. 24, n. 2, 2018, p. 505-528.

CRAWFORD, Kate, GILLESPIE, Tarleton, 2016. What is a flag for? Social media reporting tools and the vocabulary of complaint. New Media & Society. 2016 vol.18 no. 33 p. 410-428.

DONAHOE, E.; METZGER, M. M. Artificial intelligence And Human rights. Journal of Democracy, v.30, n. 2, p. 115-126, 2019.

FALLETI, Tulia G, 2016. Process tracing of extensive and intensive processes. New Political Economy, vol. 21, no. 5, p. 455–462.

GILLESPIE, Tarleton, 2018. Custodians of the Internet: Platforms, Content Moderation, and the Hidden Decisions That Shape Social Media. New Haven: Yale University Press.

GILLESPIE, Tarleton, 2020. Content moderation, AI, and the question of scale. Big Data & Society. 2020. Vol 7 , no. 2.

GORWA, Robert, BINNS, Reuben e KATZENBACH,Christian, 2020. Algorithmic content moderation: Technical and political challenges in the automation of platform governance. Big Data & Society vol. 3 no. 1 p. 1–15.

GRAY, Joanne E e SUZOR, Nicolas P, 2020. Playing with machines: Using machine learning to understand automated copyright enforcement at scale. Big Data & Society. Janeiro 2020.

GPAI. The Global Partnership on Artificial Intelligence. Responsible AI Working Group ReporT 2021 - GPAI Paris Summit. Disponível em < https://www.gpai.ai/projects/responsible-ai/gpai-responsible-ai-wg-report-november-2021.pdf > Acesso em 17 março 2022.

ITU. International Telecommunication Union. United Nations Activities on Artificial Intelligence (AI)2021. Geneva, 2021. Disponível em < https://www.itu.int/dms_pub/itu-s/opb/gen/S-GEN-UNACT-2021-PDF-E.pdf > Acesso em 12 julho 2022.

KUMAR, Sangeet, 2019. The algorithmic dance: YouTube’s Adpocalypse and the gatekeeping of cultural content on digital platforms. Internet Policy Review, vol. 8 no. 2.

MA, Renkai e KOU, Yubo, 2021. How advertiser-friendly is my video?: YouTuber’s Socioeconomic Interactions with Algorithmic Content Moderation. Proceedings of the ACM on Human-Computer Interaction, 5(CSCW2).

OECD. Recommendation of the Council on Artificial Intelligence, OECD/LEGAL/0449. 2022. Disponível em < https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449 > Acesso em 25 julho 2022.

PUDDEPHATT. Andrew, 2021 Letting the Sun Shine In: Transparency and Accountability in the Digital Age. Paris: UNESCO.

ROBERTS, Sarah T, 2019. Behind the Screen: Content Moderation in the Shadows of Social Media. New Haven: Yale University Press.

SILVA, Luiz Rogério Lopes, BOTELHO-FRANCISCO, Rodrigo Eduardo., ALISSON AUGUSTO DE OLIVEIRA, Alisson Augusto e PONTES, Vinícius Ramos, 2019. A gestão do discurso de ódio nas plataformas de redes sociais digitais: um comparativo entre Facebook, Twitter e Youtube. Revista Ibero-Americana De Ciência Da Informação, vol. 12 no 2, p. 470–492.

SILVA, Sivaldo P. da, 2020. Democracia, Inteligência Artificial e desafios regulatórios: direitos, dilemas e poder em sociedades datificadas. Revista Eletrônica do Programa de Pós-Graduação da Câmara dos Deputados, v. 13, p. 226-248.

SUZOR, Nicolas. P. et al, 2019. What Do We Mean When We Talk About Transparency? Toward Meaningful Transparency in Commercial Content Moderation. International Journal of Communication, 13, p. 1526–1543.

TARVIN, Emily e STANFILL, Mel, 2022. YouTube’s predator problem: Platform moderation as governance-washing, and user resistance. Convergence, vol. 28, no. 3, p. 822–837.

WIRTZ, Bernd W. et al, 2020. The Dark Sides of Artificial Intelligence: An Integrated AI Governance Framework for Public Administration. International Journal of Public Administration, p. 1-12.

Downloads

Publicado

24/11/2022

Como citar

SILVA, S. P. da; CESAR, D. J. T. Inteligência Artificial, moderação de conteúdos no YouTube e a proteção de direitos: características, problemas e impactos políticos. Liinc em Revista, [S. l.], v. 18, n. 2, p. e6080, 2022. DOI: 10.18617/liinc.v18i2.6080. Disponível em: https://revista.ibict.br/liinc/article/view/6080. Acesso em: 19 abr. 2024.

Edição

Seção

O papel dos algoritmos e das plataformas digitais em contextos sociopolíticos