BREVE ANÁLISE ENTRE DIREITO BRASILEIRO E UNIÃO EUROPEIA ACERCA DA APLICAÇÃO DA INTELIGÊNCIA ARTIFICIAL

 

Nathalia Pereira da Sena Silva[1]

Universidade Federal do Tocantins

nathalia.sena@mail.uft.edu.br

Aloísio Alencar Bolwerk[2]

Universidade Federal do Tocantins

bolwerk@mail.uft.edu.br

______________________________

Resumo

O artigo científico tem como objetivo realizar uma análise abrangente dos avanços e desafios da inteligência artificial - IA no âmbito do sistema legal, considerando suas implicações éticas, sociais e jurídicas. Além disso, o objetivo é analisar as propostas das legislações brasileiras e estabelecer um paralelo com o direito europeu, visando identificar divergências e semelhanças. O desenvolvimento desses sistemas se baseia na utilização de dados provenientes da experiência humana, o que evidencia os riscos inerentes e tem impulsionado diversos países a empreender esforços legislativos para regulamentação. Nesse contexto, destaca-se a União Europeia, cujo objetivo principal é criar um ecossistema de desenvolvimento baseado em confiança. Com o intuito de compreender a abordagem atual desse tema e realizar um estudo comparativo entre os sistemas jurídicos em questão, foram analisados exemplos práticos de implementação da inteligência artificial. Adicionalmente, realizou-se um levantamento bibliográfico de documentos, propostas legislativas e estudos publicados pela União Europeia, bem como de legislações brasileiras relevantes. Os resultados obtidos revelaram que as legislações brasileiras vigentes se assemelham ao modelo europeu e buscam enfrentar os problemas decorrentes do uso da IA. No entanto, a medida que essas tecnologias se desenvolvem, nota-se a necessidade de uma proteção assecuratória para a prevenção e reparação de danos. Importante também a presença de cientistas críticos, especializados na área, pois influenciaram diretamente as criações legislativa e o enquadramento correto das IA conforme seu risco.

Palavras-chave: inteligência artificial; União Europeia.; Legislação; PL 2.338/2023.

BRIEF ANALYSIS BETWEEN BRAZILIAN LAW AND EUROPEAN UNION ON THE APPLICATION OF ARTIFICIAL INTELLIGENCE

Abstract

This scientific article aims to conduct a comprehensive analysis of the advances and challenges of artificial intelligence in the legal system, considering its ethical, social, and legal implications. Furthermore, the objective is to analyze the proposals of Brazilian legislations and establish a parallel with European law, with the purpose of identifying divergences and similarities. The development of these systems is based on the use of data from human experience, which highlights the inherent risks and has driven several countries to undertake legislative efforts for regulation. In this context, the European Union stands out, whose main objective is to create a trust-based ecosystem for development of AI. In order to understand the current approach to this topic and conduct a comparative study between the legal systems in question, practical examples of artificial intelligence implementation were analyzed. Additionally, a bibliographic survey of documents, legislative proposals, and studies published by the European Union, as well as relevant Brazilian legislation, was carried out. The results obtained revealed that the current Brazilian legislation constitutes a starting point in solving problems associated with the topic. However, as these technologies develop, there is a need for secure protection to prevent and repair damage. The presence of critical scientists, specialized in the area, is also important, as they directly influenced the legislative creations and the correct framing of AIs according to their risk.

Keywords: artificial intelligence; European Union; Legislations; PL 2.338/2023

BREVE ANÁLISIS ENTRE EL DERECHO BRASILEÑO Y LA UNIÓN EUROPEA SOBRE LA APLICACIÓN DE LA INTELIGENCIA ARTIFICIAL

Resumen

El artículo científico tiene como objetivo realizar un análisis integral de los avances y desafíos de la inteligencia artificial - IA dentro del ordenamiento jurídico, considerando sus implicaciones éticas, sociales y jurídicas. Además, el objetivo es analizar las propuestas de la legislación brasileña y establecer un paralelo con el derecho europeo, con el objetivo de identificar divergencias y similitudes. El desarrollo de estos sistemas se basa en el uso de datos de la experiencia humana, lo que resalta los riesgos inherentes y ha llevado a varios países a emprender esfuerzos legislativos para su regulación. En este contexto destaca la Unión Europea, cuyo principal objetivo es crear un ecosistema de desarrollo basado en la confianza. Para comprender el enfoque actual de este tema y realizar un estudio comparativo entre los ordenamientos jurídicos en cuestión, se analizaron ejemplos prácticos de implementación de inteligencia artificial. Además, se realizó un levantamiento bibliográfico de documentos, propuestas legislativas y estudios publicados por la Unión Europea, así como de legislación brasileña relevante. Los resultados obtenidos revelaron que la legislación brasileña actual es similar al modelo europeo y busca abordar los problemas derivados del uso de la IA. Sin embargo, a medida que estas tecnologías se desarrollan, existe la necesidad de una protección segura para prevenir y reparar daños. También es importante la presencia de científicos críticos, especializados en el área, que influyeron directamente en las creaciones legislativas y en el correcto encuadre de las IA según su riesgo.

Palabras clave: inteligencia artificial; Unión Europea.; Legislaciones; PL 2.338/2023.

1  INTRODUÇÃO

Da mesma forma que o ser humano utiliza uma parte física (cérebro) para manipular o conhecimento, a Inteligência Artificial (IA), por meio de um mecanismo eletrônico foi pensada para reproduzir um raciocínio. O próprio nome sugere, a IA teria a pretensão de imitar artificialmente as faculdades humanas como criatividade, autoaperfeiçoamento e uso da linguagem.

No século XXI, é inegável que a Inteligência Artificial faz parte da realidade e representa o futuro. Esse fato tem se tornado incontestável à medida que ela é apresentada ao mundo. As “redes neurais” da IA criada pelo Google criaram imagens psicodélicas e intrigantes. Alguns desses sistemas já são capazes de gerar músicas ou produzir pinturas que são fidedignas aos autores que as inspiraram, mas completamente originais. Ela até mesmo alcançou o sistema judiciário brasileiro através do Projeto Victor e Sócrates.

No entanto, embora as IA apresentadas à sociedade em geral estejam cercadas pela sensação de progresso e desenvolvimento, elas ainda são ferramentas humanas e, como tais, podem ser manipuladas ou estar simplesmente sujeitas a erros e vícios.

Destaca-se que como qualquer ferramenta, estão sujeitas ao escrutínio da seara jurídica, afinal, podem lesar seus usuários. A importância da análise do tema transcende discussões éticas ou jurídicas do campo acadêmico, adentrando o cotidiano da sociedade. Ao reconhecer essa realidade, a União Europeia tem apresentado abordagens específicas para a criação de legislações voltadas para regulamentação desses sistemas.

Nesse sentido, será realizado um breve estudo entre as jurisdições brasileiras e europeias, utilizando técnicas de levantamento bibliográfico e documental em livros, artigos científicos, legislação e sites especializados no tema. O objetivo principal desta pesquisa é analisar os avanços da Inteligência Artificial (IA) e seu impacto no Brasil, especialmente no âmbito jurídico, além de examinar as legislações propostas para lidar com essa questão, contrastando-as com o direito europeu.

Nessa conjuntura, o primeiro capítulo será dedicado a encontrar uma definição simplificada do que a IA representa, com base em exemplos práticos de sua implementação, incluindo uma breve interação com um desses sistemas.

Ato seguinte, serão realizados apontamentos do conteúdo de documentos e propostas legislativas publicadas pela União Europeia relacionados ao tema. Essas observações têm por objetivo demonstrar a importância do tema no plano internacional e identificar boas práticas que serão implementadas para promover um ambiente legal, adequado e seguro para o desenvolvimento e aplicação da IA.

Na mesma linha, o terceiro capítulo irá pontuar as legislações brasileiras relevantes para o tema e questões circundantes, bem como sua aplicação a casos concretos relacionados e as propostas específicas para o trato desses sistemas.

Por fim, serão realizados apontamentos sucintos entre os dois sistemas jurídicos, registrando algumas diferenças e semelhanças nas abordagens legais adotadas pelas duas jurisdições.

Em suma, a proposta do estudo é contribuir para o avanço do tema e sobre os desafios que a inteligência artificial representa para o sistema legal. Esse exame irá contribuir no desenvolvimento de uma visão abrangente do Direito diante do tema, levando em consideração as implicações éticas, sociais e legais dessa tecnologia.

 

2  INTELIGÊNCIA ARTIFICIAL: UMA DEFINIÇÃO EM EXEMPLOS

Conforme mencionado, a Inteligência Artificial (IA) nasceu com a pretensão de imitar o ser humano em sua independência e capacidade de raciocínio. Se essa pretensão foi alcançada em sua plenitude? Óbvio que não! Principalmente, porque há muito mais sobre a mente humana do que simples padrões que a IA tenta simular a partir de seu sistema.

Sendo assim, o que a IA é realmente? Pois bem, sua definição engloba diversos conceitos e métodos, pois, refere-se a sistemas computacionais que realizam previsões com base em aprendizado de máquina e dados (Brasil, 2022).

Não há como realizar uma definição sintetizada e simples desassociada de seu emprego. São sistemas, em sua grande maioria, utilizados para automatizar e acelerar a pesquisa de casos, leis e jurisprudência, analisando grandes volumes de informações legais (Brasil, 2022).

Essa capacidade permite identificar padrões, classificar e categorizar documentos com base em áreas, tipos de caso e relevância jurídica. Os advogados, por exemplo, podem utilizar esses sistemas como uma fonte estratégica de decisão, pois são capazes de fornecer uma visão preditiva sobre o sucesso de uma ação legal.

No âmbito do judiciário brasileiro, em 2018, o STF lançou o projeto "Victor", uma IA projetada para ser uma ferramenta que oferece suporte relevante aos servidores da corte. Sua existência foi pensada para enfrentar o volume massivo de processos e documentos legais que chegam ao STF.

O “Victor” utiliza técnicas de processamento de linguagem natural e aprendizado de máquina para reconhecer e identificar palavras-chaves usadas em peças que já eram priorizadas na análise dos recursos extraordinários, como o acórdão, o recurso extraordinário, o agravo de recurso extraordinário, o despacho e a sentença.

Na corte, as peças e palavras-chave funcionam como dados que serão medidos pelo algorítmico, o qual atua como um classificador capaz de revelar os maiores litigantes da Justiça e os processos repetitivos, além de identificar as questões processuais mais recorrentes nas ações que chegam ao STF (Junquilho; Maia Filho, 2021, p. 02). De maneira similar, funciona o projeto Sócrates que visa automatizar o exame de Recursos e Acórdãos recorridos (Prado; Andrade, 2022, p. 13).

Embora o uso de IA no judiciário brasileiro tenha alcançado os objetivos até então almejados, nem todas as IA disponíveis são casos de sucesso, especialmente quando lidam com tarefas mais complexas. Em 2018 Amazon decidiu descartar um algoritmo que vinha sendo desenvolvido desde 2014, para a seleção e recrutamento de novos funcionários, com base em dados de currículos recebidos durante 10 anos. O sistema deveria atribuir até 5 estrelas aos currículos, mas devido a maioria dos currículos serem masculinos, o algoritmo começou a penalizar injustamente as candidatas do sexo feminino, erroneamente entendendo que os homens eram mais aptos (Pedreira, 2019)

Observou-se que quanto mais técnicas as vagas e tipicamente compostas pelo sexo masculino, maiores eram as penalizações de currículos que incluíam a palavra “feminino”. A resposta para o caso parte da ideia de que o sistema aprendeu com base em seus dados de treinamento, os quais, em sua grande maioria, demonstravam que os candidatos adequados para essas vagas eram, em geral, pessoas do sexo masculino (Pedreira, 2019).

Esse caso não é isolado. Cita-se o exemplo de Aline Camilo Sena, uma desenvolvedora que decidiu testar o modelo de recrutamento da Gupy, empresa líder de mercado no setor de análise de pessoas, que utiliza tecnologias de IA aplicadas em processos de recrutamento (Sena, 2022). Esse fato foi abordado na reportagem "Reprovados por Robôs" do site The Intercept.

A desenvolvedora, após responder aos testes, pediu que sua irmã, sem aptidão para a vaga, se candidatasse com um perfil idêntico ao dela, mas "ela copiou um texto genérico no campo da redação e respondeu todas as perguntas assinalando a mesma alternativa". Como resultado, a desenvolvedora foi reprovada e sua irmã aprovada (Neves, 2022).

A Gupy não soube explicar o resultado e admitiu que houve uma falha na redação aprovada, mas afirmou que são as empresas que definem as regras e pesos das etapas do processo seletivo. No caso de uma etapa qualitativa, como a redação, ela deveria ter sido submetida a avaliação humana (Neves, 2022).

No entanto, muitos profissionais de Recursos Humanos não possuem habilidade de leitura de dados e acabam aceitando os resultados desse sistema sem questionamento. A Gupy afirma que a IA (Gaia) foi criada para ser ética e reconhece que o fator humano é insubstituível. Em sua produção, eles afirmaram levar em consideração 150 critérios, como gênero, orientação sexual, trabalhos voluntários e outros, mas esse compromisso ético não ficou evidente diante do problema mencionado (Neves, 2022).

Segundo, Medeiros e Moção (2021), em casos como esse, não há relação de consumo entre o candidato e a empresa recrutadora. Assim, para um candidato comum, é quase impossível obter provas em relação à falta de transparência do sistema e a ausência de uma legislação específica sobre o assunto. Explicar essa injustiça para o judiciário pode parecer apenas uma insatisfação com a decisão tomada.

Enfim, se haviam dúvidas da disseminação desses sistemas, elas foram exauridas diante da popularização do sistema “chatGPT”, lançado em 2022. Ele dominou as redes e tem suscitado discussões. O sistema, em geral, escreve frases concisas, gramaticalmente corretas e funciona como um modelo de linguagem desenvolvido pela OpenAi capaz de responder a questões sobre diferentes tópicos. O chatboot opera analisando o texto de entrada, buscando padrões em dados de treinamento e gerando respostas com base nesses dados.

O software busca teoricamente se comportar como ser humano e já se tornou parte do cotidiano de brasileiros tendo sido matéria na Forbes que apontou 5 aplicações práticas para seu uso. Entre elas, destaca-se o incentivo aos alunos do ensino médio para desenvolver uma análise crítica, contrapondo seus argumentos com o do sistema ou, para grandes empresas, no treinamento, suporte e orientação aos seus funcionários (Barbosa, 2023).

Sabe-se que essas ferramentas, assim como as outras mencionadas, em alguma medida trabalham sob supervisão humana e aparentemente não apresentam grandes riscos. No entanto, é necessário um uso ético e crítico, além da implementação de práticas que reduzam seus riscos

Esses riscos podem surgir tanto do próprio uso dessas ferramentas quanto da abundância de dados em um mundo interconectado e da alta capacidade de processamento dessa tecnologia, que está sendo desenvolvida para ser autônoma. O jurista Felipe Medon aponta o surgimento de um novo modelo de sociedade, onde “muitos desses algorítmicos aprendem a partir de migalhas de dados que deixamos no mundo digital” (Medon, 2022, p. 37). A busca por uma IA autônoma sugere que futuramente será cada vez mais difícil explicar ou prever a eficiência e a precisão de suas decisões.

3  UNIÃO EUROPEIA: APONTAMENTOS SOBRE PROPOSTAS E LEGISLAÇÕES EM MATÉRIA DE INTELIGÊNCIA ARTIFICIAL

No âmbito internacional, países tem se dedicado ao tema, a Coreia do Sul, por exemplo, incentivava fortemente o desenvolvimento de uma IA sem restrições legais e regulatórias (Brasil, p. 260, 2022).

No entanto, discussões sobre o tem se intensificado no campo ético ao demonstrar que esses sistemas apresentam riscos de vieses discriminatório e podem favorecer ou prejudicar pessoas. Retoma-se, o mencionado exemplo do sistema criado pela Amazon para recrutamento de candidatos a emprego, que mostrou ter um viés sexista (Carloto, 2021).

Diante dessas dificuldades, diversos países, especialmente os membros da União Europeia (UE), têm proposto regulamentações. Esse interesse legislativo surge, porque a própria estrutura mecânica da IA, que produz resultados automatizados e supostamente infalíveis, pode sugerir aos usuários uma falsa segurança ou ideia de neutralidade.

Contudo, o “treinamento” recebido, além da escolha de dados, tem impacto direto em seu resultado. Até mesmo a seleção dos dados usados para alimentar os sistemas podem criar padrões diferentes dos desejados e incorporar preferências pessoais de seus criadores, bem como preconceitos, conhecidos como vieses de máquina.

À vista disso, a UE enquanto bloco econômico, tem buscado criar regulações seguindo modelos e órgãos supranacionais, no intuito de ser a primeira a criar um conjunto de regras específicas para o tema. Desde 2018, a Comissão Europeia, entidade responsável por definir as estratégias globais e orientações políticas, apresentou um plano estratégico que demonstrava seu interesse em assumir a liderança no assunto (União Europeia, 2018).

A Comissão despendeu esforços para incentivar políticas públicas para o estudo do desenvolvimento da IA, com a divulgação completa de informações e resultados. Existia um claro empenho em tornar o uso desses sistemas na UE em mais seguro, transparente, ético, imparcial e sob controle humano (União Europeia, 2020).

Principalmente, porque a divulgação desses resultados e informações, possibilitaria que os dados obtidos fossem facilmente reutilizados por empresas públicas e privadas em seu treinamento. Assim, almejava-se criar um círculo que envolvia desenvolvimento econômico, capacidade de reconhecer os padrões de treinamentos e o alcance da finalidade almeja pelos sistemas (União Europeia, 2020).

 

O objetivo da EU ficou ainda mais evidente em 2020 com lançamento do livro branco[3]: sobre a inteligência artificial - Uma abordagem europeia virada para a excelência e confiança. Nele é esclarecido que abordagem adotada para esse fim seria a criação de “ecossistema de excelência” baseada em eixos de confiança, transparência, diversidade (não discriminação e equidade) e responsabilização (União Europeia, 2020). 

Esses eixos partiram do reconhecimento factual de que se uma IA realiza funções que antes eram cotidianamente humanas, por serem presenças constantes na vida das pessoas, podem facilmente obter, gerar ou desanonimizar dados, a partir da observação de hábitos humanos e seus padrões. Além disso, a falta de compreensão sobre o tema, acabava por gerar inseguranças que afetariam a área jurídica e a própria comercialização de produtos com essa tecnologia.  

Todos esses aspectos incidiram em 2024, na aprovação definitiva do projeto regulatório intitulado: “Regulamento que estabelece regras harmonizadas em Inteligência Artificial (Regulamento Inteligência Artificial)”. O “AI Act”, como ficou conhecido, explica em sua “exposição de motivos” que, como regulamento, se concentra na existência de riscos substancias e significativos,

Dois de seus objetivos específicos transitam entre melhorias dos sistemas de governança e a garantia que a IA colocada em mercado respeite os valores e as legislações em vigor, principalmente em matéria de direitos fundamentais (União Europeia, p. 4, 2021). 

O propósito é promover de maneira horizontal a execução do ecossistema de confiança, com base em requisitos mínimos sem prejudicar a evolução tecnológica. Essa abordagem foi criada em coerência e para complementação do Regulamento Geral de Proteção de Dados [Regulamento (UE) 2016/679] e a Diretiva sobre a Proteção de Dados na Aplicação da Lei [Diretiva (UE) 2016/680], estabelecendo regras harmonizadas para sistemas de IA de alto risco e restrições ao uso de sistemas de identificação biométrica à distância (União Europeia, 2021). 

Também foram incluídos requisitos específicos para minimizar o risco de discriminação algorítmica, como a qualidade dos conjuntos de dados e a supervisão humana ao longo do ciclo de vida dos sistemas de IA (União Europeia, 2021).

O regulamento, dividiu a IA em sistemas que “criam: i) um risco inaceitável, ii) um risco elevado, iii) um risco baixo ou mínimo” (União Europeia, p. 15, 2021). Para as situações em que se enquadram as IA de risco limitado e risco mínimo, a legislação servirá como "código de conduta".

Os robôs de conversação ou chatbot são considerados de risco limitado, sujeitos a obrigações de transparência apenas no sentido que seus usuários compreendam a abrangência da interação com o sistema. As IA de risco mínimo que, em geral, são as mais comuns atualmente, não se enquadram na proposta, pois tem baixo risco de danos aos seus usuários e são abrangidas pelas legislações existentes (União Europeia, p.12, 2023). 

Especificamente sobre suas disposições, no título I, preliminarmente, buscou-se definições neutras do que é a IA com base nos “conteúdos, previsões, recomendações ou decisões que influenciam o ambiente com o qual o sistema interage, quer numa dimensão física, quer digital” (União Europeia, 2021). Ao mesmo tempo, em seu anexo I, foi apresentada uma lista detalhada de abordagens e técnicas de desenvolvimento que deverão serão atualizadas no decorrer da evolução tecnológica, juntamente com os participantes da cadeia. 

O uso de sistemas de risco inaceitável foi proibido, pois podem distorcer o comportamento humano, causar danos físicos, psicológicos ou violar valores e direitos fundamentais (como classificação social, técnicas subliminares e manipulativas, sistemas que exploram vulnerabilidades de crianças ou pessoas com deficiência).

O regulamento especifica que dentre os sistemas inaceitáveis, os de biometria em tempo real, só serão permitidos em situações voltadas para manutenção da ordem pública, com limites espaciais e temporais, sendo necessária autorização judicial ou administrativa do Estado-Membro da UE. Essas situações envolvem, por exemplo, investigação de crimes como desaparecimento de crianças, ameaças específicas à vida ou segurança e ataques terroristas (União Europeia, p. 49-50, 2021).

No que diz respeito aos sistemas de risco elevado, eles foram categorizados por domínios de uso (anexo III), que representam risco de danos à saúde, segurança ou direitos fundamentais, como em: sistemas de identificação (biometria e categorização); infraestrutura (segurança e controle de trânsito, redes de abastecimento de água, gás, aquecimento e eletricidade); educação e formação (acesso a instituições de ensino ou avaliação para admissão); emprego (recrutamento, avaliação de candidatos, promoção ou demissão de empregos, avaliação de desempenho) e administração da justiça (União Europeia, p. 51, 2021).

Além disso, para distinguir esses domínios, conforme anexo III do regulamento, foram considerados os objetivos, níveis de uso, capacidade de afetar um grande número de pessoas, dependência dos indivíduos afetados pelos resultados do sistema e a vulnerabilidade dos prejudicados (como desequilíbrio de poder ou conhecimento).

No capítulo 2, foi estabelecido requisitos aos sistemas de risco elevado. É necessário criar um sistema de estimativa e gestão de riscos aplicados continuamente, além de serem submetidos a avaliações que assegurem um desempenho coerente. Nesse sentido, o título V, prevê ambientes de testagem, para a validação de IA consideradas inovadoras. 

Também foram dispostas práticas de governança e gestão de dados, como a análise de representatividade dos conjuntos de dados em relação a dimensões como gênero ou etnia, e a avaliação de possíveis vieses. É exigido o registro dos conjuntos de dados utilizados, descrições de suas características, registros do modelo de programação e supervisão humana (art. 9 ao 15 do Regulamento).

O título IV, estabeleceu que as IA que interagem diretamente com pessoas têm obrigação específica de transparência quando seus sistemas poderem detectar, fazer associações sociais para manipular conteúdo com base em emoções humanas. Exceto, sistemas legalmente autorizados para prevenir, reprimir ou investigar infrações penais.

Sobre avaliações de conformidade com a legislação, ficou estabelecido a emissão de certificados, a obrigação de manter registros gerados automaticamente ou pelo uso da IA. Assim, mediante o conhecimento de eventuais riscos, deve-se apresentar a atividade as autoridades nacionais de controle, de supervisão ou notificação. 

As autoridades notificadoras serão criadas em todos os Estados Membros, com acesso a um banco de dados da UE sobre IA autónomas de risco elevado. O regulamento prevê o dever de comunicação de incidentes ou anomalias, bem como um código de conduta aplicado às IA de risco não elevado (União Europeia, 2023). 

Bioni, Garrote e Guedes (2023) descrevem, em relação a IA como o ChatGPT, que a UE os colocou como modelos fundacionais (sistemas, com diferentes graus de autonomia, geradores de conteúdo como texto complexo, imagens, áudio ou vídeo,). Esses modelos englobariam tanto sistemas de propósito geral (código aberto), IA generativas e modelos grandes de linguagem. O Regulamento ainda prevê riscos específicos para a cadeia de agentes envolvidos em sua criação e obrigações (art. 28b e 9º).

Em suma, o projeto estabelece parâmetros para a criação de uma legislação que lide não apenas com as inovações inerentes à área, mas também abranja suas dificuldades (União Europeia, 2021).

 

 

4 APONTAMENTOS SOBRE LEGISLAÇÕES BRASILEIRAS APLICADAS A INTELIGÊNCIA ARTIFICIAL

No Brasil, a Lei do Marco Civil da Internet (12.965/2014) foi introduzida no ordenamento jurídico para estabelecer princípios, garantias, direitos e deveres relativos à internet (art. 1º). Conhecida como a "Constituição da Internet", ela reconheceu a existência e estabeleceu mecanismos gerais para interpretar as relações jurídicas virtuais.

Nela o princípio da neutralidade de rede (art. 3º, inciso IV) determina que os provedores de acesso à internet devem tratar todos os dados de forma igualitária, sem discriminação ou privilégios. Isso significa, conforme art. 9º, em não poder bloquear, discriminar ou privilegiar determinados conteúdos, aplicativos, serviços ou dispositivos (Brasil, 2014).

A proteção à privacidade também é garantida (art. 3º, inciso II) ao estabelecer que a coleta, o armazenamento e o tratamento de dados pessoais só podem ser realizados mediante o consentimento expresso do usuário ou quando necessário para o cumprimento de obrigações legais (Brasil, 2014). 

Ademais, criou-se mecanismos de responsabilidade dos provedores de serviços online. Eles devem adotar medidas de segurança para proteger os dados pessoais contra acessos não autorizados, devem manter registros de conexão dos usuários pelo prazo de 6 meses, em ambiente controlado e de segurança. Esses registros não podem ser acessados ou utilizados para fins comerciais, apenas para investigação criminal ou para defesa em processos judiciais (art. 10º, §1º). 

A aplicação do Marco Civil da Internet pode ser vista em conjunto com a Lei Geral de Proteção de Dados - LGPD (lei 13.709/2018). Por exemplo, em uma sentença proferida pelo Juízo da Vara de Interesses Difusos e Coletivos, que condenou a Empresa Facebook Serviços Online Do Brasil LTDA devido ao vazamento de dados pessoais ocorrido em 2021.

A LGPD foi pensada e criada para aprimorar e regular a obtenção, tratamento e uso desses dados. No contexto da inteligência artificial (IA), tem sido considerada uma fonte para combater eventuais violações. Ela estabelece regras sobre como os dados serão tratados no Brasil, tanto por pessoas físicas e jurídicas, sejam elas públicas ou privadas. Além disso, institui a Autoridade Nacional de Proteção de Dados (ANPD), responsável por analisar e punir o mau uso de dados (Paulo; Jacobsen, 2022). 

Em relação à IA, Lima e Sá (2020) destacam a importância do princípio da transparência, também conhecido como “direito à explicação”. Esse princípio visa garantir a revisão das decisões tomadas com base no processamento automatizado de dados. Embora não seja mencionado explicitamente, esse princípio se torna evidente no artigo 20 da LGPD (BRASIL, 2018). Através de sua aplicação seria possível observar em que nível os dados de entrada influenciaram no resultado, uma vez que gênero, idade e raça impactam decisões. 

Atualmente, a maioria das pessoas, especialmente os brasileiros, têm acesso a uma IA baseada em algoritmos que, em tese, “não são autônomos, racionais ou capazes de discernir qualquer coisa sem treinamento extensivo e intensivo computacionalmente com grandes conjuntos de dados ou regras e recompensas predefinidas” (Crawford, 2021, p. 18-19). São sistemas que servem aos interesses de seus idealizadores. 

A curto prazo, o direito à explicação e revisão seriam uma forma de evitar abusos, como, por exemplo, o uso de mensagens pré-gravadas em chamadas telefônicas realizadas por robôs (Robocalls), que têm sido usadas para aplicação de golpes, disseminação de promoções e ofertas de emprego de forma massivas. 

Nessa perspectiva, Paulo e Jacobsen (2022) explicam que as criadoras dos Robocalls alimentam o sistema com dados (números de telefones e documentos). Eles funcionam como um combustível que pode ser obtido a partir de dados vazados ou troca de informações entre companhias telefônicas. Os autores mencionam inclusive a notificação do Governo Federal em fevereiro de 2021 “as quatro maiores operadoras de telefonia no Brasil para que explicassem o vazamento de dados de 103 milhões de brasileiros” (Paulo; Jacobsen, 2022). 

Dessa forma, questões como transparência e explicação de ocorrências, como os vazamentos mencionados, estão abrangidos pelas disposições da LGPD. A proteção contra a violação do direito de privacidade e consentimento do titular dos dados também está prevista no artigo 7º da lei (Brasil, 2018).

Por outro lado, a imprevisibilidade dos sistemas, como demonstrado nos casos anteriores da Amazon e Gupy, onde as operações produzem resultados diversos dos interesses de seus programadores, pode comprometer a eficácia dessas soluções.

Beck, Boff e Piaia (2022) destacam as dificuldades relacionadas às decisões automatizadas, incluindo o segredo comercial que impede o acesso às informações pelo titular dos dados, bem como a arquitetura desconhecida desses sistemas que operam sem o conhecimento do usuário. A máquina é alimentada com dados de entrada e saída, mas não é capaz de gerar a interpretação dos dados, apenas realizar correlações, cálculos probabilísticos e seguir um caminho baseado na arquitetura do seu código.

O princípio da transparência ou direito à explicação, sem um meio concreto de aplicação, acaba sendo apenas um ideal. Embora a LGPD seja um ponto de partida para essa análise, deve existir uma abordagem setorial ou multissetorial, além de dispositivos jurídicos específicos com mecanismos de avaliação de riscos.  

 No Brasil, em 2020 foi proposto o Projeto de Lei n.º 21/2020 que intensificou as discussões sobre o tema. Porém, considerando o projeto limitado, o Senado Federal formou a Comissão de Juristas (CJSUBIA) que realizou diversas audiências públicas, com participação de múltiplas classes, elaborando em 2023 um relatório final que culminou no PL 2338/2023.

O PL2.338/2023, conhecido como o “Marco Legal da Inteligência Artificial” foi apresentado como substitutivo aos Projetos de Leis (PLs): 5.051, de 2019, 21, de 2020, e 872, de 2021. Como fundamento, tem o objetivo de proteger as pessoas naturais impactadas pela IA e harmonicamente dispor sobre ferramentas de governança, segurança jurídica, supervisão e inovação (Brasil, 2023).

O PL consagrou o direito de os usuários terem informação prévia em relação a sua interação com o sistema (art. 5º, I e VIII do PL). O art. 4º trouxe importantes definições, como a de discriminação algorítmica, conceituando a discriminação indireta na medida que uma norma ou prática, considerada neutra, poderia gerar uma desvantagem a grupos específicos (Brasil, 2023).

Semelhante ao modelo europeu, o PL dividiu a IA em sistemas de (i) risco excessivo (crédito social e biometria, salvo exceções em lei federal e autorização judicial) e que são proibidos; (ii) risco alto que deverão possuir documentação, elaboração de impacto algorítmico e técnicas para viabilizar a explicação e; (iii) risco moderado/baixo onde são aplicáveis medidas de transparência, gestão e prevenção de vieses.

Após analisar o projeto, a ANPD (Nota Técnica n.º 16/2023), afirmou que haviam convergências do PL com a LGPD. A agência apontou que seu papel de zelar pela proteção de dados, lhe conferiria posição central e protagonista na regulação e governança dos sistemas (BRASIL, 2023).

Isso porquê, após perquirir propostas legislativas internacionais, concluiu que uma abordagem centralizada em uma única autoridade possibilitaria ações mais rápidas e coordenadas na prevenção e mitigação de riscos. Essa centralização ainda tornaria mais efetiva a orientação dos diversos setores envolvidos na aplicação dos sistemas, além da aplicação homogênea dos regulamentos em todo o território brasileiro.

No entanto, para Prass, Mugge e Bernasiuk (2023) ainda há pontos controvertidos no PL, como o art. 42 que dispõe “não constitui ofensa a direitos autorais a utilização automatizada de obras, [...] em processos de mineração de dados e textos em sistemas de inteligência artificial, nas atividades feitas por organizações e instituições de pesquisa, de jornalismo e por museus, arquivos e bibliotecas”. Argumentam que as IA generativas, como o ChatGPT que cobram pela versão superior de seu programa, utilizam dados produzidos por autores sem a contraprestação por suas obras literárias.

Da mesma forma, a capacidade de emularem o estilo de escrita de escritores renomados também é uma adversidade que vai da problemática em se definir quem é o real autor da obra até a utilização de suas vivências e subjetividades que serão livremente manipuladas pela máquina. Esses fatores geram reflexões, pois o contexto brasileiro é de históricas dificuldades financeiras para a produção literária que acaba por ser acentuada pelos sistemas (Moura Prass; Mügge; Lentz Ribeiro Bernasiuk, 2023)

O PL, para IA de propósito geral, previu uma série de obrigações de governança, como uma avaliação de impactos irreversíveis ou difícil reversão (princípio da precaução). No entanto, IA generativas como o ChatGPT, não possuem uma conceituação específica no regulamento, podendo não se enquadrar nessa classificação (Bioni; Garrote; Guedes, 2023),

 Além desses problemas, Salles e Costa (2023), defendem a importância de se oferecer uma cobertura securitária, como fundos compensatórios ou seguros obrigatórios para as vítimas de danos. Eles afirmam que para tornar esses seguros válidos deve haver sanções severas contra proprietários/usuários sem a proteção securitária adequada, como a desativação temporária dos robôs. Enfatizam ainda que sistemas que possuem caixa-preta (black box) demandariam intervenção direta de agências regulatórias.

Por sua vez, Academia Brasileira de Ciências (ABC) ao emitir recomendações para o avanço da inteligência artificial no Brasil, apontou que o país ainda não domina amplamente a tecnologia. Assim, não é capaz de analisar os resultados dos modelos, implicações, bem como para exercer a crítica eficaz das aplicações desenvolvidas com base nessa tecnologia o que vincula diretamente uma produção legislativa. (ABC, 2023).

Conciliar o conhecimento jurídico com o conhecimento especializado em IA é um dilema enfrentado pelas regulações internacionais. Acelerar o crescimento de profissionais críticos, qualificados em diferentes níveis deve ser um interesse urgente e que ultrapassa o campo jurídico.

Caso contrário além da possibilidade de o país cair em declínio tecnológico, a ausência de cientistas ligados ao tema, poderão gerar regulamentos limitantes, restritivos ou que simplesmente não alcancem com clareza a população, comunidade cientifica ou empresarial. Sem o conhecimento adequado, parcelas da sociedade poderão se fixar somente nos aspectos negativo dos sistemas (ABC, 2023).

 

5  CONSIDERAÇÕES FINAIS

Em resumo, a Inteligência Artificial apresenta um potencial significativo, sendo uma tecnologia complexa, capaz de auxiliar e, possivelmente, superar os seres humanos em algumas áreas.

No entanto, é fundamental reconhecer que elas ainda são instrumentos que devem ser devidamente gerenciados. A obtenção dos dados necessários para o seu funcionamento depende da intervenção humana. Portanto, é essencial um trabalho conjunto entre intérpretes jurídicos, desenvolvedores, programadores, operadores e usuários para compreender as nuances da IA e estabelecer legislações adequadas.

A União Europeia tem sido uma pioneira nesse sentido, introduzindo o conceito de "ecossistema de confiança" para equilibrar os riscos associados à IA promover a inovação e garantir a proteção dos usuários. Esse ecossistema enfatiza a publicidade e transparência nas pesquisas, bem como a supervisão humana pelos setores públicos e privados.

Essa abordagem tem sido realizada no plano horizontal e criada em coerência com regulações já existentes na UE em relação a proteção de dados. Essa horizontalidade também é observada na necessária supervisão humana, especialmente na obrigação de transparência quando os sistemas de risco elevado puderem manipular conteúdo. Eles serão fiscalizados em ambientes de testagens e integrarão um banco de dados da União Europeia contendo os incidentes, anomalias e códigos de conduta aplicados

A definição da IA com base em seu potencial de risco tem sido uma abordagem-chave da proposta (risco: inaceitável, elevado, mínimo). Assim, distinguiu-se que seria necessário proibir o uso de certos sistemas (risco inaceitável).

Também foi observada a necessidade de proibir certos sistemas de alto risco, que se assemelham aos utilizados pela Amazon e Gupy em processos de recrutamento, quando usados em serviços públicos ou que afetam uma grande parcela da população.

Para as IA de risco limitado, a legislação servirá como um "código de conduta", como os chatbots que devem cumprir obrigações de transparência para que os usuários compreendam a interação com o sistema.

Enquanto as mais comuns estariam atualmente abrangidas pelas legislações existentes (baixo risco), casos em que se enquadram as robocalls e os sistemas que identificam padrões e servem para categorizar ou classificar documentos.

No Brasil, o Marco Civil da Internet e a Lei Geral de Proteção de Dados têm sido adotados para tratar questões relacionadas. Essas legislações já possuem forte conteúdo principiológico sendo consequentemente aplicadas aos casos concretos enfrentados pelo judiciário.

O Marco Civil estabelece que os provedores devem tratar os dados de forma igualitária, sem bloqueios ou privilégios, conforme o princípio da neutralidade de rede. Além disso, impõe a responsabilidade de proteger esses dados contra acessos não autorizados.

Por outro lado, a LGPD introduziu o princípio da transparência, que se aplica às decisões automatizadas e serve como ponto de partida para entender os resultados e o funcionamento desses sistemas. Esse princípio também inclui o "direito à explicação", semelhante ao ecossistema de confiança buscado pela União Europeia.

A LGPD também estabelece regras de tratamento de dados para todas as pessoas, sejam públicas ou privadas, no Brasil. Isso é importante, pois os dados são fontes de treinamento para a IA e podem resultar em vieses de máquina. Além disso, é necessário destacar a importância desse tratamento e da proteção da privacidade dos usuários diante dos casos de vazamento mencionados anteriormente.

No entanto, à medida que a tecnologia avança rapidamente e as IA se tornam mais autônomas, fica claro que essas leis por si só não serão suficientes a longo prazo. As decisões automatizadas realizadas pelo que se considera "meros algoritmos, irracionais e dependentes do treinamento humano" e deveriam ser apenas ferramentas, têm demonstrado sua capacidade prejudicial, como nos casos da Amazon e Gupy. A difícil compreensão desses sistemas impossibilita até mesmo que a população em geral perceba seus vícios, o que fica claro com a intervenção de uma desenvolvedora no caso da Gupy.

No embate dessas questões, o PL 2.338/2023 tem caminhando na mesma linha da proposta da EU, definindo uma classificação de riscos, proibindo sistemas com potencial altamente danoso e apresentando definições (discriminação indireta) que se contrapõe aos vieses de máquina dos sistemas de IA.

Todavia, os amplos aspectos dessa tecnologia ainda representam desafios, tanto do ponto de vista tecnológico, quando jurídico. Ambos, incidem diretamente na capacidade de proteger a sociedade dos danos de seu uso. Principalmente, quando se observa que IA generativas como o ChatGPT são extremamente populares e já demonstram, como no caso do direito autoral, dificuldades que podem não ser abrangidas pelo PL.

Logo, para uma legislação eficaz, deve-se criar, por exemplo um modelo assecuratório que atenda de forma ética e protetiva tanto ao segmento econômico-tecnológico como aos usuários. Cientistas ligados ao tema devem participar diretamente nas criações legislativas, afim de que a sociedade compreenda o alcance e finalidade das propostas legislativas.

REFERÊNCIAS

ABC. ACADEMIA BRASILEIRA DE CIÊNCIAS. GT-IA. Recomendações para o avanço da inteligência artificial no Brasil. Disponível em: https://www.abc.org.br/wp-content/uploads/2023/11/recomendacoes-para-o-avanco-da-inteligencia-artificial-no-brasil-abc-novembro-2023-GT-IA.pdf. Acesso em: 23 abr. 2024.

BARBOSA, Andressa. Cinco aplicações práticas do ChatGPT. Disponível em: https://forbes.com.br/forbes-tech/2023/01/cinco-aplicacoes-praticas-do-chatgpt/ Leia mais em: https://forbes.com.br/forbes-tech/2023/01/cinco-aplicacoes-praticas-do-chatgpt/. Acesso em: 06 jun. 2023.

BIONI, Bruno; GARROTE, Marina; GUEDES, Paula. Temas centrais na Regulação de IA: o local, o regional e o global na busca da interoperabilidade regulatória. São Paulo: Associação Data Privacy Brasil de Pesquisa, 2023.

BRASIL. AUTORIDADE NACIONAL DE PROTEÇÃO DE DADOS COORDENAÇÃO-GERAL DE TECNOLOGIA E PESQUISA - ANPD. Sugestões de incidência legislativa em projetos de lei sobre a regulação da Inteligência Artificial no Brasil, com foco no PL no 2338/2023. Disponível em: https://www.gov.br/anpd/pt-br/assuntos/noticias/Nota_Tecnica_16ANPDIA.pdf. Acesso em: 23 abr. 2024.

BRASIL. Comissão de Jurista. Senado Federal. Relatório Final: comissão de juristas responsável por subsidiar elaboração de substituto sobre inteligência artificial no brasil. Comissão de Juristas Responsável por Subsidiar Elaboração de Substituto Sobre Inteligência Artificial no Brasil. 2022. Disponível em: https://www.stj.jus.br/sites/portalp/SiteAssets/documentos/noticias/Relato%CC%81rio%20final%20CJSUBIA.pdf. Acesso em: 07 jun. 2023.

BRASIL. Lei 12.965/2014 – Estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil - Marco Civil da Internet. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2011-2014/2014/lei/l12965.htm. Acesso em 29 ago. 2023.

BRASIL. Lei 13.709/2018 - Lei Geral de Proteção de Dados. Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2011-2014/2011/lei/l12527.htm. Acesso em 29 ago. 2022.

BRASIL. Projeto de Lei n.o 2.338, de 2023. Dispõe sobre o uso da Inteligência Artificial. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/157233. Acesso em: 23 abr. 2024.

BRASIL. Tribunal de Justiça do Maranhão.  Ação Civil Coletiva. Instituto Brasileiro de Estudo e Defesa das Relações de Consumo - IBEDEC - Facebook Serviços Online do Brasil Ltda. Vazamento de Dados – Falha de Segurança – Falha na Prestação de Serviços, com fulcro na Lei Geral de Proteção de Dados – Responsabilidade de Reparar - Dano Moral In Re Ipsa - Dano Moral Coletivo. Nome do relator precedido da palavra "Relator". 23/03/2023, sentença, processo nº: 0812915-60.2021.8.10.0001. 

CHATGPTChatGPT: get instant answers, find creative inspiration, and learn something new. 2023. Elaborado por OpenAI. Disponível em: https://chat.openai.com/. Acesso em: 06 jun. 2023.

CRAWFORD, K. Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press, New Haven, CT, 2021.

FERNANDO, Sérgio Tenório de Amorim; MILTON, Pereira de França Netto. O papel da tecnologiano processo de inovação: a inteligência artificial como instrumento e objetode políticas públicas. Revista da Faculdade de Direito do Sul de Minas, Pouso Alegre, v. 39, n. 1, p. 309-330, jan. 2023. Disponível em: https://revista.fdsm.edu.br/index.php/revistafdsm/article/view/707/523. Acesso em: 9 jun. 2023. 

JUNQUILHO, Tainá Aguiar; MAIA FILHO, Mamede Said. Inteligência Artificial No Poder Judiciário: Lições Do Projeto Victor. Inovação, Novas Tecnologias e O Futuro do Direito, Palmas, v. 8, n. 48, p. 147-160, 06 out. 2021. Mensal. Disponível em: https://revista.unitins.br/index.php/humanidadeseinovacao/article/view/5615. Acesso em: 18 abr. 2022.

LIMA, Taisa Maria Macena de; SÁ, Maria de Fátima Freire de. Inteligência artificial e Lei Geral de Proteção de Dados Pessoais: o direito à explicação nas decisões automatizadas. Revista Brasileira de Direito Civil, Belo Horizonte, v. 26, n. 04, p. 227-246, 2020. Instituto Brasileiro de Direito Civil - IBDCivil. http://dx.doi.org/10.33242/rbdc.2020.04.011.

MEDON, Felipe. Inteligência Artificial e Responsabilidade Civil: autonomia, riscos e solidariedade. 2. ed. São Paulo: Juspodivim, 2022. 576 p. (ISBN 978-65-5680-776-8).

MOURA PRASS, Rochele; MÜGGE, Ernani; LENTZ, Helen Ribeiro Bernasiuk. Autoria em tempos de inteligência artificial generativa: um olhar para a produção ficcional contemporânea no Brasil. Texto Digital, São Carlos, v. 19, n. 2, p. 75-106, 20 dez. 2023. Disponível em: https://doi.org/10.5007/1807-9288.2023.e96937. Acesso em: 24 abr. 2024.

NEVES, Ianaira Barretto. Reprovados por Robôs: como plataformas de inteligência artificial podem discriminar mulheres, idosos e faculdades populares em processos seletivos. Como plataformas de inteligência artificial podem discriminar mulheres, idosos e faculdades populares em processos seletivos. 2022. Disponível em: https://www.intercept.com.br/2022/11/24/como-plataformas-de-inteligencia-artificial-podem-discriminar-mulheres-idosos-e-faculdades-populares-em-processos-seletivos/. Acesso em: 06 jun. 2023.

PAULO, Matheus Adriano; JACOBSEN, Gilson. Desafios à lei geral de proteção de dados na era da inteligência artificial: entre o direito à privacidade e as robocalls. Revista de Direito, Inovação, Propriedade Intelectual e Concorrência, Florianópolis, v. 8, n. 2, p. 1-20, 15 fev. 2022. http://dx.doi.org/10.26668/indexlawjournals/2526-0014/2022.v8i2.9105. Disponível em: https://indexlaw.org/index.php/revistadipic/article/view/9105/pdf. Acesso em: 06 jun. 2023. 

PEDREIRA, Patrick. O preconceito na inteligência artificial e como combatê-lo. 2019. Disponível em: https://www.wattson.pt/2019/01/22/o-preconceito-na-inteligencia-artificial/. Acesso em: 06 jun. 2023.

RUTOWITSCH BECK, C. A. M.; MANZONI BOFF, M.; COVATTI PIAIA, T. Lei Geral de Proteção de Dados e a Revisão de Decisões Automatizadas: os mecanismos de regulação baseados em uma Inteligência Artificial ética. Revista Eletrônica Direito e Política, Uberlândia, v. 17, n. 2, p. 509–546, 2022. DOI: 10.14210/rdp.v17n2.p509-546. Disponível em: https://periodicos.univali.br/index.php/rdp/article/view/19067. Acesso em: 7 jun. 2023.

SALLES, Raquel Bellini; COSTA, Thais Silva. A securitização dos danos causados por inteligência artificial. Civilistica.com, Rio de Janeiro, v. 12, n. 1, p. 1–32, 2023. Disponível em: https://civilistica.emnuvens.com.br/redc/article/view/870. Acesso em: 23 abr. 2024.

SENA, Aline Camilo. Aline Camilo Sena, Desenvolvedora de Software. 2022. Disponível em: https://www.linkedin.com/posts/sena_rh-gupy-processoseletivo-activity-6931660773412737027-jMlU?utm_source=share&utm_medium=member_desktop. Acesso em: 06 jun. 2023.

UNIÃO EUROPEIA. Anexos da Proposta de Regulamento do Parlamento Europeu e do Conselho que Estabelece Regras Harmonizadas em Matéria de Inteligência Artificial (Regulamento Inteligência Artificial) e Altera Determinados Atos Legislativos da União. 2021. Disponível em: https://eur-lex.europa.eu/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0004.02/DOC_2&format=PDF. Acesso em: 07 jun. 2023.

UNIÃO EUROPEIA. Comunicação da Comissão ao Parlamento Europeu, ao Conselho Europeu, ao Conselho, ao Comité Económico e Social e ao Comité das Regiões: Plano Coordenado para a Inteligência Artificial. 2021. Comissão Europeia. Disponível em: https://eur-lex.europa.eu/legal-content/PT/TXT/HTML/?uri=CELEX:52018DC0795&from=FR. Acesso em: 20 nov. 2022.

UNIÃO EUROPEIA. Livro Branco. União Europeia - site EUR-LEX: Comissão Europeia, 20 nov. 2022. Definição do que é o Livro Branco. Disponível em: https://eur-lex.europa.eu/legal-content/PT/TXT/?uri=LEGISSUM:white_paper. Acesso em: 20 nov. 2022.

UNIÃO EUROPEIA. Regulamento do Parlamento Europeu e do Conselho que Estabelece Regras Harmonizadas em Matéria de Inteligência Artificial (Regulamento Inteligência Artificial) e Altera Determinados Atos Legislativos da União. 2021. Comissão Europeia. Disponível em: https://eur-lex.europa.eu/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0004.02/DOC_1&format=PDF. Acesso em: 13 jun. 2022.

 

 



[1] Graduanda em Direito pela Universidade Federal do Tocantins (UFT).

[2] Doutor em Direito Privado. Professor Adjunto da Fundação Universidade Federal do Tocantins. Professor Permanente do Programa de Mestrado Profissional em Prestação Jurisdicional e Direitos Humanos da UFT/ESMAT.

[3] Os Livros Brancos da Comissão Europeia são documentos que contêm propostas de ação da União Europeia (UE) em domínios específicos. A finalidade dos Livros Brancos é lançar o debate com o público, as partes interessadas, o Parlamento Europeu e o Conselho com o objetivo de obter consensos políticos”. (UNIÃO EUROPEIA, 2020)