Inteligência Artificial, moderação de conteúdos no YouTube e a proteção de direitos: características, problemas e impactos políticos
DOI:
https://doi.org/10.18617/liinc.v18i2.6080Palavras-chave:
Moderação de conteúdos, Inteligência artificial, Mídias sociais, YouTube, Governança algoritmicaResumo
Este artigo tem como principal objetivo caracterizar o papel de sistemas de inteligência artificial na moderação de conteúdos de usuários no YouTube, seus problemas e impactos políticos, especialmente no horizonte da proteção de direitos individuais. A pesquisa utilizou o método de rastreamento de processo, baseado na coleta e análise de dados qualitativos para estabelecer relações causais e compreender como ocorre a moderação de conteúdos na plataforma. Foram analisados 79 textos dentre notas e informações publicadas pela plataforma em seu blog corporativo; documentos de políticas de moderação de conteúdos e relatórios de transparência da empresa. Os resultados demonstram que há uma crescente centralização da Inteligência Artificial (IA) no processo de moderação de conteúdo, transformando a moderação humana em um dispositivo do sistema automatizado. Isso tem gerado um crescimento substancial do número de remoções de conteúdo potencialmente nocivo que traz, por outro lado, efeitos colaterais como o aumento das violações de direitos individuais pela plataforma. Opacidade; acirramento no problema da escala; moderação guiada por princípios comerciais; falhas na captação de contexto; fragilidade nos processos de participação e accountability são outros problemas também identificados
Referências
ANANNY, Mike e CRAWFORD, Kate, 2018. Seeing without knowing: Limitations of the transparency ideal and its application to algorithmic accountability. New Media and Society, vol. 20, no. 3, p. 973–989.
BEACH, Derek, PEDERSEN, Rasmus Brun, 2013. Process-Tracing Methods. Foundations and Guidelines. Ann Arbour, University of Michigan Press.
BUNTAIN, Cody, BONNEAU, Richard, NAGLER, Jonathan e TUCKER, Joshua, 2021. YouTube Recommendations and Effects on Sharing Across Online Social Platforms. Proceedings of the ACM on Human-Computer Interaction. 5. 1-26. 10.1145/3449085. [Acesso em 24 julho 2022]. Disponível em: https://arxiv.org/abs/2003.00970.
BURROUGHS, Benjamin, 2017. YouTube Kids: The App Economy and Mobile Parenting. Social Media + Society, vol. 3 no. 2 p. 1–8.
BRIGHT, J et al. Addressing Hate Speech On Social Media: Contemporary Challenges. Paris: UNESCO, 2021.
CATH, C. et al. Artificial Intelligence and the “Good Society”: the US, EU, and UK approach. Science and Engineering Ethics, v. 24, n. 2, 2018, p. 505-528.
CRAWFORD, Kate, GILLESPIE, Tarleton, 2016. What is a flag for? Social media reporting tools and the vocabulary of complaint. New Media & Society. 2016 vol.18 no. 33 p. 410-428.
DONAHOE, E.; METZGER, M. M. Artificial intelligence And Human rights. Journal of Democracy, v.30, n. 2, p. 115-126, 2019.
FALLETI, Tulia G, 2016. Process tracing of extensive and intensive processes. New Political Economy, vol. 21, no. 5, p. 455–462.
GILLESPIE, Tarleton, 2018. Custodians of the Internet: Platforms, Content Moderation, and the Hidden Decisions That Shape Social Media. New Haven: Yale University Press.
GILLESPIE, Tarleton, 2020. Content moderation, AI, and the question of scale. Big Data & Society. 2020. Vol 7 , no. 2.
GORWA, Robert, BINNS, Reuben e KATZENBACH,Christian, 2020. Algorithmic content moderation: Technical and political challenges in the automation of platform governance. Big Data & Society vol. 3 no. 1 p. 1–15.
GRAY, Joanne E e SUZOR, Nicolas P, 2020. Playing with machines: Using machine learning to understand automated copyright enforcement at scale. Big Data & Society. Janeiro 2020.
GPAI. The Global Partnership on Artificial Intelligence. Responsible AI Working Group ReporT 2021 - GPAI Paris Summit. Disponível em < https://www.gpai.ai/projects/responsible-ai/gpai-responsible-ai-wg-report-november-2021.pdf > Acesso em 17 março 2022.
ITU. International Telecommunication Union. United Nations Activities on Artificial Intelligence (AI)2021. Geneva, 2021. Disponível em < https://www.itu.int/dms_pub/itu-s/opb/gen/S-GEN-UNACT-2021-PDF-E.pdf > Acesso em 12 julho 2022.
KUMAR, Sangeet, 2019. The algorithmic dance: YouTube’s Adpocalypse and the gatekeeping of cultural content on digital platforms. Internet Policy Review, vol. 8 no. 2.
MA, Renkai e KOU, Yubo, 2021. How advertiser-friendly is my video?: YouTuber’s Socioeconomic Interactions with Algorithmic Content Moderation. Proceedings of the ACM on Human-Computer Interaction, 5(CSCW2).
OECD. Recommendation of the Council on Artificial Intelligence, OECD/LEGAL/0449. 2022. Disponível em < https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449 > Acesso em 25 julho 2022.
PUDDEPHATT. Andrew, 2021 Letting the Sun Shine In: Transparency and Accountability in the Digital Age. Paris: UNESCO.
ROBERTS, Sarah T, 2019. Behind the Screen: Content Moderation in the Shadows of Social Media. New Haven: Yale University Press.
SILVA, Luiz Rogério Lopes, BOTELHO-FRANCISCO, Rodrigo Eduardo., ALISSON AUGUSTO DE OLIVEIRA, Alisson Augusto e PONTES, Vinícius Ramos, 2019. A gestão do discurso de ódio nas plataformas de redes sociais digitais: um comparativo entre Facebook, Twitter e Youtube. Revista Ibero-Americana De Ciência Da Informação, vol. 12 no 2, p. 470–492.
SILVA, Sivaldo P. da, 2020. Democracia, Inteligência Artificial e desafios regulatórios: direitos, dilemas e poder em sociedades datificadas. Revista Eletrônica do Programa de Pós-Graduação da Câmara dos Deputados, v. 13, p. 226-248.
SUZOR, Nicolas. P. et al, 2019. What Do We Mean When We Talk About Transparency? Toward Meaningful Transparency in Commercial Content Moderation. International Journal of Communication, 13, p. 1526–1543.
TARVIN, Emily e STANFILL, Mel, 2022. YouTube’s predator problem: Platform moderation as governance-washing, and user resistance. Convergence, vol. 28, no. 3, p. 822–837.
WIRTZ, Bernd W. et al, 2020. The Dark Sides of Artificial Intelligence: An Integrated AI Governance Framework for Public Administration. International Journal of Public Administration, p. 1-12.
Downloads
Publicado
Edição
Seção
Licença
Copyright (c) 2022 Sivaldo Pereira da Silva, Daniel Jorge Teixeira Cesar

Este trabalho está licenciado sob uma licença Creative Commons Attribution 4.0 International License.
Autores que publicam na Liinc em Revista concordam com os seguintes termos:
Autores mantém os direitos autorais e concedem à revista o direito de primeira publicação, com o trabalho simultaneamente licenciado sob a Licença Creative Commons Atribuição 4.0 Internacional, que permite o compartilhamento do trabalho com reconhecimento da autoria e publicação inicial nesta revista.
Consulte a Política de Acesso Livre e Autoarquivamento para informações permissão de depósitos de versões pré-print de manuscritos e artigos submetidos ou publicados à/pela Liinc em Revista.
Liinc em Revista, publicada pelo Instituto Brasileiro de Informação em Ciência e Tecnologia, é licenciada sob os termos da Licença Creative Commons Atribuição 4.0 Internacional – CC BY 4.0