1. Escopo, princípios e fundamentos
1.1. Normas gerais para a concepção, o desenvolvimento, implementação, utilização, adoção e governança responsável de sistemas de inteligência artificial (IA) no Brasil (Art. 1º)
1.2. Fora do escopo (Art. 1º, § 1º)
1.2.1. Quando usado usado por pessoa natural para fim exclusivamente particular e não econômico, mas aplicam-se medidas de governança da Seção V do Capítulo IV (Art. 1º, § 1º).
1.2.2. Quando desenvolvido e utilizado única e exclusivamente para fins de defesa nacional
1.2.3. Quando em atividades de testagem, desenvolvimento, pesquisa ou que não sejam colocadas em circulação no mercado, desde que mantida exclusivamente sua finalidade de investigação e desenvolvimento científico (seguem sendo aplicados CDC, LGPD e PNMA)
1.3. Fundamentos (Art. 2º)
1.3.1. Centralidade da pessoa humana
1.3.2. Respeito e promoção aos direitos humanos e aos valores democráticos
1.3.3. Livre desenvolvimento da personalidade e liberdade de expressão
1.3.4. Proteção ao meio ambiente e ao desenvolvimento ecologicamente equilibrado
1.3.5. Igualdade, não discriminação, pluralidade e diversidade
1.3.6. Direitos sociais, em especial a valorização do trabalho humano
1.3.7. Desenvolvimento socioeconômico, científico e tecnológico e inovação
1.3.8. Defesa do consumidor, livre iniciativa e livre concorrência
1.3.9. Privacidade, proteção de dados pessoais e autodeterminação informativa
1.3.10. Promoção da pesquisa e do desenvolvimento com a finalidade de estimular o desenvolvimento social e a redução de desigualdades, bem como a inovação nos setores produtivos e no poder público e as parcerias público-privadas
1.3.11. Acesso à informação e disseminação de dados, de forma aberta, estruturada e segura
1.3.12. Proteção de direitos culturais e a promoção dos bens artísticos e históricos
1.3.13. Educação e a conscientização sobre os sistemas de inteligência artificial para a promoção do pleno desenvolvimento e do exercício da cidadania
1.3.14. Proteção e promoção de direitos de grupos vulneráveis, em especial de idosos, pessoas com deficiência e, com proteção integral e visando ao melhor interesse, de crianças e adolescentes, reconhecendo a vulnerabilidade agravada
1.3.15. Integridade da informação mediante a proteção e a promoção da confiabilidade, precisão e consistência das informações
1.3.16. Fortalecimento do processo democrático e do pluralismo político
1.3.17. Proteção de direitos de propriedade intelectual e ao segredo comercial e industrial
1.3.18. Garantia da segurança da informação e segurança cibernética
1.3.19. Inserção, integração e competitividade brasileira no mercado internacional
1.4. Princípios (Art. 3º)
1.4.1. Crescimento inclusivo, desenvolvimento sustentável e bem-estar
1.4.2. Autodeterminação e liberdade de decisão e de escolha
1.4.3. Participação humana no ciclo da IA e supervisão humana efetiva
1.4.3.1. A supervisão humana não será exigida caso sua implementação seja comprovadamente impossível ou implique esforço desproporcional, hipóteses em que o agente do sistema de IA implementará medidas alternativas eficazes. (Art. 8º, parágrafo único)
1.4.4. Não discriminação
1.4.5. Justiça, equidade e inclusão
1.4.6. Transparência, auditabilidade, explicabilidade, inteligibilidade e confiabilidade
1.4.7. Segurança da informação
1.4.8. Devido processo legal, contestabilidade e contraditório
1.4.9. Rastreabilidade das decisões
1.4.10. Prestação de contas, responsabilização e reparação integral de danos
1.4.11. Prevenção, precaução e mitigação de riscos sistêmicos
1.4.12. Não maleficência e proporcionalidade
1.5. Diretrizes para atuação do Poder Público (Art. 68)
1.5.1. Estabelecer de mecanismos de governança multiparticipativa, multissetorial transparente, colaborativa e democrática, com a participação do governo, do setor empresarial, do terceiro setor e da comunidade acadêmica, especialmente considerando os grupos vulneráveis;
1.5.2. Promover a confiança nas tecnologias de IA, com disseminação de informações e de conhecimento sobre seus usos éticos e responsáveis;
1.5.3. Estimular a capacitação e à preparação das pessoas para a reestruturação do mercado de trabalho;
1.5.4. Promover a interoperabilidade entre sistemas de IA, inclusive entre os diferentes âmbitos federativos e diversos setores da sociedade e com decisões que busquem evitar a dependência tecnológica e propiciar a continuidade do emprego dos sistemas desenvolvidos ou contratados;
1.5.5. Publicidade e disseminação de dados, de forma aberta, estruturada e segura;
1.5.6. Proteção ao meio ambiente e o desenvolvimento sustentável;
1.5.7. Promoção da cooperação internacional, mediante estímulo ao compartilhamento do conhecimento sobre sistemas de IA, de modo a facilitar a interoperabilidade regulatória e tecnológica.
1.5.8. Deverá formular e fomentar estudos, bem como fixar metas, estratégias, planos e cronogramas referentes ao uso da IA no País (Art. 71)
2. Governança e autorregulação
2.1. Códigos de conduta
2.1.1. Os agentes de IA poderão, individualmente ou por meio de associações, formular códigos de boas práticas e de governança que estabeleçam as condições de organização, o regime de funcionamento, os procedimentos, inclusive sobre reclamações das pessoas afetadas, as normas de segurança, os padrões técnicos, as obrigações específicas para cada contexto setorial de implementação, as ações educativas, os mecanismos internos de supervisão e de mitigação de riscos e as medidas de segurança técnicas e organizacionais apropriadas para a gestão dos riscos decorrentes da aplicação dos sistemas no seu respectivo domínio de atividade (art. 39)
2.1.2. A adesão voluntária a código de boas práticas e a elaboração de medidas de governança podem ser consideradas indicativo de boa-fé por parte do agente e será levada em consideração pela autoridade competente e demais autoridades setoriais para fins de aplicação de sanções administrativas
2.1.3. Desenvolvedores e aplicadores podem implementar programa de governança, conforme critérios na nota (§ 2º art. 39)
2.1.4. Regras de boas práticas, serão consideradas a finalidade, a probabilidade e a gravidade dos riscos e dos benefícios decorrentes e os possíveis impactos a grupos vulneráveis (§ 1º, art. 39)
2.2. Autorregulação
2.2.1. Os agentes de IA podem associar-se voluntariamente sob a forma de pessoa jurídica de direito privado sem fins lucrativos para promover a autorregulação com o objetivo de incentivar e assegurar melhores práticas de governança ao longo de todo o ciclo de vida de sistemas de IA. (Art. 40)
2.2.2. Funções que podem ser compreendidas pela autorregulação (§ 1º, Art. 40)
2.2.2.1. Estabelecer critérios técnicos dos sistemas de IA aplicada, inclusive de padronização, prudenciais e de atuação concertada dos entes associados, desde que não impeçam o desenvolvimento tecnológico e em conformidade com esta Lei e as normas vinculantes do SIA
2.2.2.2. Compartilhamento de experiências sobre o uso de IA, sendo vedado o compartilhamento de informações concorrencialmente sensíveis, nos termos da legislação pertinente
2.2.2.3. Definição contextual de estruturas de governança previstas nesta Lei
2.2.2.4. Critérios para provocar da autoridade competente e demais autoridades integrantes do SIA para o emprego de medida cautelar e canal de recebimento de informações relevantes sobre riscos do uso de IA por seus associados ou qualquer interessado
2.2.2.5. A adoção de padrões, melhores práticas e modelos de certificação reconhecidos internacionalmente
2.2.2.5.1. Orientações normativas gerais sobre certificados e acreditação de organismos de certificação ficam sob responsabilidade da autoridade competente (Art. 45, VIII)
2.2.3. Deve obedecer os preceitos da Lei da Concorrência e é vedada qualquer atuação que possa restringir a livre concorrência (§ 2º, Art. 40)
3. Incentivos e fomento à inovação
3.1. Sandboxes e ambientes de testagem
3.1.1. Deverão ser promovidos e regulados pela autoridade competente e setorial, com acesso prioritário a PMEs e startups
3.1.2. Mantém-se a responsabilidade civil e regulatória em ambientes de testagem por quaisquer danos infligidos a terceiros em resultado da experimentação art. 37 e art. 55
3.2. Incentivos
3.2.1. Obrigação das administrações públicas em todoso os níveis (Federal, Estadual, Distrital e Municipal) fomentar o desenvolvimento produtivo e tecnológico e inovação em IA (Art. 57) com base nas seguintes diretrizes:
3.2.1.1. I - promoção da inovação nos setores produtivos, inclusive por meio da contratação de soluções inovadoras pelo Estado e celebração de parcerias público-privadas nos termos da Lei nº 11.079, de 30 de dezembro de 2004;
3.2.1.2. II - investimento em pesquisa para o desenvolvimento de IA no país, voltadas ao contexto socioeconômico brasileiro, prezando pela autonomia tecnológica e de dados do País e sua inserção e competitividade no mercado interno e internacional
3.2.1.3. III - financiamento de recursos físicos e tecnológicos de IA de difícil acesso para pequenas e médias empresas e centros de pesquisa que promovam práticas sustentáveis; e
3.2.1.4. IV – incentivo à adoção de infraestrutura computacional sustentável nas operações públicas e privadas, incluindo a utilização prioritária de fontes de energia renovável para alimentação de servidores de dados e outras infraestruturas de processamento computacional
3.2.1.5. Priorização de utilização de sistemas e aplicações de IA que visem a eficiência energética e racionalização do consumo de recursos naturais (Art. 58)
3.3. PMEs e Startups
3.3.1. As autoridades competentes deverão definir critérios diferenciados, levando em consideração o impacto concorrencial das atividades econômicas correlatas, o número de usuários afetados e a natureza das atividades econômicas exercidasdiferenciados para sistemas de IA ofertados por microempresas, empresas de pequeno porte e startups que promovam o desenvolvimento da indústria tecnológica nacional (Art. 67)
3.3.2. Terão acesso prioritário a a sandboxes e ambientes de testagem (Art. 54, § 1º)
3.3.3. Poderão ser criados mecanismos para reduzir os custos regulatórios (Art. 54, § 2º)
3.4. FNDCT
3.4.1. Passa a priorizar, em algumas hipóteses, projetos de IA (Art. 75)
4. Direitos das pessoas afetadas
4.1. Todos os sistemas (Art. 5º)
4.1.1. À informação prévia quanto às suas interações com sistemas de IA, de forma cessível, gratuita e de fácil compreensão inclusive sobre caráter automatizado da interação, exceto nos casos em que se trate de sistemas de IA dedicados única e exclusivamente à cibersegurança e à ciberdefesa [com o uso de ícones ou símbolos uniformizados facilmente reconhecíveis (§ 1º)]
4.1.2. À privacidade e à proteção de dados pessoais, em especial os direitos dos titulares de dados nos termos da Lei nº 13.709, de 14 de agosto de 2018 e da legislação pertinente;
4.1.3. À determinação e à participação humana, levando-se em conta o contexto, o nível de risco do sistema e o estado da arte do desenvolvimento tecnológico
4.1.4. À não-discriminação ilícita ou abusiva e à correção de vieses discriminatórios ilegais ou abusivos sejam eles diretos ou indiretos
4.1.5. Para grupos vulneráveis, devem ser transparentes e adotar linguagem simples, clara e apropriada à idade e capacidade cognitiva, e implementados considerando o melhor interesse desses grupos. (§ 2º)
4.2. Sistemas de alto risco (Art. 6º)
4.2.1. À explicação sobre a decisão, recomendação ou previsão feitas pelo sistema
4.2.1.1. Parágrafo único. A explicação solicitada no âmbito do inciso I, respeitando o segredo comercial e industrial, incluirá informações suficientes, adequadas e inteligíveis, nos termos do Regulamento
4.2.2. De contestar e de solicitar a revisão de decisões, recomendações ou previsões de sistema de IA
4.2.3. Direito à revisão humana das decisões, levando-se em conta o contexto, risco e o estado da arte do desenvolvimento tecnológico
4.2.3.1. Art. 8º trata de supervisão humana, que está previsto entre os princípios, mas não está entre os direitos previstos na seção
4.2.3.1.1. Parágrafo único. A supervisão humana não será exigida caso sua implementação seja comprovadamente impossível ou implique esforço desproporcional, hipóteses em que o agente do sistema de IA implementará medidas alternativas eficazes.
4.2.4. A defesa dos interesses e dos direitos previstos nesta Lei poderá ser exercida: I - perante o órgão administrativo competente; e II - em juízo, individual ou coletivamente, na forma do disposto na legislação pertinente acerca dos instrumentos de tutela individual, coletiva e difusa (Art. 11)
5. Poder Público
5.1. Governança (Art. 21) e (Art. 69)
5.2. Base de Dados Pública (Art. 43)
6. Direitos autorais
6.1. Desenvolvedores devem informar quais conteúdos protegidos por direitos de autor e conexos foram utilizados nos processos de treinamento dos sistemas de IA, conforme disposto em regulamentação (Art. 60)
6.2. Não constitui ofensa aos direitos autorais a utilização automatizada de conteúdos protegidos em processos de mineração de textos e dados para os fins de pesquisa ou desenvolvimento de sistemas de IA por **instituições sem fim lucrativo** organizações e instituições de pesquisa, jornalismo, museus, arquivos, bibliotecas e educacionais, nas seguintes condições (Art. 61) ou quando utilizados por entidades públicas ou privadas para combate a ilícitos, civis e criminais, que atentem contra direitos de autor e conexos
6.2.1. I - o acesso tenha se dado de forma lícita;
6.2.2. II - não tenha fins comerciais;
6.2.3. III - a atividade não tenha como objetivo principal a reprodução, exibição ou disseminação da obra original em si;
6.2.4. IV - a utilização de conteúdos protegidos por direitos de autor e conexos seja feita na medida necessária para o objetivo a ser alcançado, não prejudique injustificadamente os interesses econômicos dos titulares e não concorra com a exploração normal das obras.
6.3. O titular de direitos de autor e conexos poderá proibir a utilização dos conteúdos de sua titularidade no desenvolvimento de sistemas de IA, com exceção os contextos acima (art. 62)
6.4. Cópias de conteúdos protegidos por direitos de autor e conexos utilizadas no treinamento de sistemas de IA deverão ser mantidas em estritas condições de segurança, e unicamente pelo tempo necessário para a realização da atividade ou para a finalidade específica de verificação dos resultados
6.5. Mineração de textos e dados está sujeita à LGPD (§ 3º, art. 61)
6.6. Configura infração à ordem econômica a discriminação de titulares de direitos de autor e conexos que exerçam as prerrogativas estabelecidas nesta Lei por agentes de sistemas de IA ou por entidades do mesmo grupo econômico (Art. 63)
6.7. Conteúdos protegidos por direitos de autor e direitos conexos em processos de mineração, treinamento ou desenvolvimento de sistemas de IA serão remunerados os respectivos titulares desses conteúdos em virtude dessa utilização (Art. 64)
6.8. A utilização de conteúdos de imagem, áudio, voz ou vídeo que retratem ou identifiquem pessoas naturais pelos sistemas de IA deverá respeitar os direitos da personalidade, na forma prevista no Código Civil e na legislação pertinente (art. 66)
7. Prazos
7.1. Na data da publicação
7.1.1. Medidas de incentivo e sustentabilidade (Seção III, Capítulo X)
7.1.2. Definição de critérios para PMEs e startups (Art. 67)
7.2. 180 dias
7.2.1. Entrada em vigor das regras para risco excessivo e medidas de governança para SIAPG
7.2.2. Entrada em vigor das regras para direitos autorais
7.3. 2 anos
7.3.1. O Poder Executivo deverá fornecer os recursos necessários para a reestruturação administrativa da ANPD
7.3.2. Entrada em vigor total da Lei
8. Conceitos, definições e risco
8.1. Conceitos e definição (Art. 4o)
8.1.1. Sistema de inteligência artificial (IA): sistema baseado em máquina que, com graus diferentes de autonomia e para objetivos explícitos ou implícitos, infere, a partir de um conjunto de dados ou informações que recebe, como gerar resultados, em especial, previsão, conteúdo, recomendação ou decisão que possa influenciar o ambiente virtual, físico ou real.
8.1.2. Ciclo de vida: série de fases desde a concepção, planejamento, desenvolvimento, treinamento, retreinamento, testagem, validação, implantação e monitoramento para eventuais modificações e adaptações de um sistema de inteligência artificial, cuja descontinuidade pode ocorrer em quaisquer das etapas referidas
8.1.3. Sistema de inteligência artificial de propósito geral (SIAPG): sistema de IA baseado em um modelo de IA treinado com bases de dados em grande escala, capaz de realizar uma ampla variedade de tarefas distintas e servir diferentes finalidades, incluindo aquelas para as quais não foram especificamente desenvolvidos e treinados, podendo ser integrado em diversos sistemas ou aplicações;
8.1.4. Inteligência artificial generativa (IA generativa): modelo de IA especificamente destinado a gerar ou modificar significativamente, com diferentes graus de autonomia, texto, imagens, áudio, vídeo ou código de software
8.1.5. Desenvolvedor de sistema de inteligência artificial: Pessoa natural ou jurídica, de natureza pública ou privada, que desenvolva um sistema de inteligência artificial, diretamente ou por encomenda, com vistas a sua colocação no mercado ou a sua aplicação em serviço por ela fornecido, sob seu próprio nome ou marca, a título oneroso ou gratuito;
8.1.6. Distribuidor: pessoa natural ou jurídica, de natureza pública ou privada, que disponibiliza e distribui sistema de IA para que terceiro o opere a título oneroso ou gratuito;
8.1.7. Aplicador: pessoa natural ou jurídica, de natureza pública ou privada, que empregue ou utilize, em seu nome ou benefício, sistema de inteligência artificial, inclusive configurando, gerenciando, mantendo ou apoiando com o fornecimento de dados para a oeração e o monitoramento do sistema de IA;
8.1.8. Agentes de inteligência artificial: desenvolvedores, distribuidores e aplicadores que atuem na cadeia de valor e na governança interna de sistemas de inteligência artificial, nos termos definidos por regulamento;
8.1.9. Autoridade competente: entidade da administração pública federal, dotada de autonomia técnica e decisória, que coordenará o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA);
8.1.10. Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA): ecossistema regulatório coordenado pela autoridade competente que tem por finalidade precípua promover e garantir a cooperação e a harmonização com as demais autoridades setoriais e órgãos reguladores, sem vínculo de subordinação hierárquica entre eles, e outros sistemas nacionais para a plena implementação e fiscalização do cumprimento desta Lei em todo o território nacional com segurança jurídica;
8.1.11. Discriminação abusiva ou ilícita: qualquer distinção, exclusão, restrição ou preferência, em qualquer área da vida pública ou privada, cujo propósito ou efeito seja anular ou restringir o reconhecimento, gozo ou exercício, em condições de igualdade, de um ou mais direitos ou liberdades previstos no ordenamento jurídico, em razão de características pessoais;
8.1.12. Discriminação indireta abusiva e/ou ilícita: Discriminação que ocorre quando normativa, prática ou critério aparentemente neutro tem a capacidade de acarretar desvantagem para pessoa ou grupos afetados, ou as coloquem em desvantagem, a menos que essa normativa, prática ou critério não seja abusiva ou ilícita;
8.1.13. Mineração de textos e dados: processo de extração e análise com alto grau de automação de grandes quantidades de dados, realizados de forma direta nos dados primários, ou indireta a partir de outra ferramenta, a partir dos quais são extraídos padrões e correlações que gerarão informações relevantes para a pesquisa, o desenvolvimento ou a utilização de sistemas de inteligência artificial.
8.1.14. Pessoa ou grupo afetado: pessoa natural ou grupo de pessoas que seja direta ou indiretamente impactado por um sistema de inteligência artificial
8.1.15. Avaliação preliminar: processo de autoavaliação prévia à colocação no mercado ou utilização de um sistema de IA para classificação de seu grau de risco para fins de cumprimento das obrigações definidas nesta Lei;
8.1.15.1. Art. 12 § 1º Incluirão em sua avaliação preliminar as finalidades de uso razoavelmente esperadas e os critérios previstos, respectivamente, nos termos da Seção III deste Capítulo - Alto Risco, sem prejuízo das disposições indicadas: I - na Seção IV do Capítulo IV - Avaliação de Impacto Algorítmico e; II - na Seção V do Capítulo IV - Medidas de Governança
8.1.16. Avaliação de impacto algorítmico: análise do impacto sobre os direitos fundamentais, apresentando medidas preventivas, mitigadoras e de reversão dos impactos negativos, bem como medidas potencializadoras dos impactos positivos de um sistema de IA;
8.1.16.1. (Art. 25 § 3º) Quando da utilização de sistemas IA que possam gerar impactos irreversíveis ou de difícil reversão, a avaliação de impacto algorítmico levará em consideração também as evidências incipientes.
8.1.16.2. Incluirá, conforme risco e porte econômico da organização, a participação pública dos diferentes segmentos sociais afetados, especialmente de grupos vulneráveis potencialmente afetados pelos sistemas, nos termos do regulamento (art. 26)
8.1.16.3. Processo interativo contínuo, executado ao longo de todo o ciclo de vida dos sistemas de IA de alto risco, requeridas atualizações periódicas (art. 27)
8.1.16.4. Poderá ser realizada junto à análise de impacto à proteção de dados pessoais, nos termos da Lei nº 13.709, de 14 de agosto de 2018, caso este seja necessário (art. 28)
8.1.16.5. Art. 29. As conclusões da avaliação de impacto serão públicas, observados os segredos industrial e comercial, nos termos do regulamento.
8.1.17. Vulnerabilidade: estado de assimetria agravada de informação ou de poder que afeta pessoas naturais ou grupos devido, entre outras, às suas condições cognitivas, sociais, étnicas, econômicas e de idade, a exemplo de crianças e adolescentes, idosos e pessoas com deficiência;
8.1.18. Ambiente regulatório experimental (sandbox): conjunto de condições especiais estabelecidas para desenvolver, treinar, validar e testar, por tempo limitado, um sistema de IA inovador, bem como modelos de negócio e políticas públicas inovadoras, técnicas e tecnologias experimentais que envolvam IA, mediante o cumprimento de critérios e de limites previamente estabelecidos e por meio de procedimento facilitado;
8.1.19. Estado da arte do desenvolvimento tecnológico: meios técnicos razoáveis e disponíveis, baseado em evidências científicas, tecnológicas e boas práticas consolidadas;
8.1.20. Efeitos jurídicos relevantes: consequências jurídicas modificativas, impeditivas ou extintivas negativas que atingem direitos e liberdades fundamentais;
8.1.21. Conteúdos sintéticos: informações, como imagens, vídeos, clipes de áudio e texto, que foram significativamente modificadas ou geradas por sistemas de inteligência artificial;
8.1.22. Integridade informacional: característica de informações que, em seu conjunto, sejam predominantemente precisas, consistentes e confiáveis
8.1.23. Identificação biométrica: método que envolve o rconhecimento de características físicas, fisiológicas e comportamentais humanas, com o propósito de identificar um indivíduo
8.1.24. Autenticação biométrica: método que envolve a comparação dos dados biométricos armazenados de um indivíduo para confirmar a identidade do usuário, buscando singularizá-lo
8.1.25. Encarregado: pessoa ou comitê indicado pelo agente de inteligência artificial para atuar como canal de comunicação com pessoas e grupos afetados, com a autoridade competente e demais entidades do SIA, bem como para supervisionar o desenvolvimento e uso ético e responsável de sistemas de inteligência artificial e em conformidade com as previsões desta Lei
8.1.26. Autoridades setoriais: órgãos e entidades do Poder Executivo Federal responsáveis pela regulação de setores específicos da atividade econômica e governamental, conforme sua competência legal;
8.1.27. Sistemas de armas autônomas (SAA): sistemas que, uma vez ativados, podem selecionar e atacar alvos sem intervenção humana adicional
8.1.28. Interface de programação de aplicação (API) – conjunto de protocolos e funções que permitem que diferentes sistemas interajam entre si.
8.2. Definições de risco
8.2.1. Risco Excessivo (art. 13º) cujo desenvolvimento, a implementação e o uso são vedados
8.2.1.1. Sistemas que induzam o comportamento da pessoa natural ou de grupos de maneira que cause danos à saúde, segurança ou outros direitos fundamentais próprios ou de terceiros;
8.2.1.2. Sistema que explorem quaisquer vulnerabilidades de pessoa natural ou de grupos com o objetivo ou o efeito de induzir o seu comportamento de maneira que cause danos à saúde, segurança ou outros direitos fundamentais próprios ou de terceiros;
8.2.1.3. Sistemas que possibilitem a produção, disseminação ou facilitem a criação de material que caracterize ou represente abuso ou exploração sexual de crianças e adolescentes;
8.2.1.4. Sistemas que avaliem os traços de personalidade, as características ou o comportamento passado, criminal ou não, de pessoas singulares ou grupos, para avaliação de risco de cometimento de crime, infrações ou de reincidência
8.2.1.5. Pelo poder público, sistemas para avaliar, classificar ou ranquear as pessoas naturais, com base no seu comportamento social ou em atributos da sua personalidade, por meio de pontuação universal, para o acesso a bens e serviços e políticas públicas, de forma ilegítima ou desproporcional;
8.2.1.6. Sistemas de armas autônomas (SAA)
8.2.1.7. Sistemas de identificação biométrica à distância, em tempo real e em espaços acessíveis ao público (exceções na nota)
8.2.2. Alto risco (art. 14º)
8.2.2.1. Sistemas com finalidades previstas no artigo 14º, levando-se em conta a probabilidade e a gravidade dos impactos adversos sobre pessoa ou grupos afetados
8.2.2.1.1. Aplicação como dispositivos de segurança na gestão e no funcionamento de infraestruturas críticas, tais como controle de trânsito e redes de abastecimento de água e de eletricidade, quando houver risco relevante à integridade física das pessoas e à interrupção de serviços essenciais, de forma ilícita ou abusiva
8.2.2.1.2. Educação, formação profissional para a determinação de acesso a instituições de ensino ou de formação profissional ou para avaliação e monitoramento de estudantes;
8.2.2.1.3. Recrutamento, triagem, filtragem, avaliação de candidatos, tomada de decisões sobre promoções ou cessações de relações contratuais de trabalho, repartição de tarefas e controle e avaliação do desempenho e do comportamento das pessoas afetadas por tais aplicações de IA nas áreas de emprego, gestão de trabalhadores e acesso ao emprego por conta própria
8.2.2.1.4. Avaliação de critérios de acesso, elegibilidade, concessão, revisão, redução ou revogação de serviços privados e públicos que sejam considerados essenciais, incluindo sistemas utilizados para avaliar a elegibilidade de pessoas naturais quanto a prestações de serviços públicos de assistência e de seguridade
8.2.2.1.5. Avaliação e classificação de chamadas, ou determinação de prioridades para serviços públicos essenciais, tais como de bombeiros e assistência médica
8.2.2.1.6. Administração da justiça, no que toca o uso sistemas que auxiliem autoridades judiciárias em investigação dos fatos e na aplicação da lei quando houver risco às liberdades individuais e ao Estado democrático de direito, excluindo-se os sistemas que auxiliem atos e atividades administrativas
8.2.2.1.7. Veículos autônomos em espaços públicos, quando seu uso puder gerar risco relevante à integridade física de pessoas
8.2.2.1.8. Aplicações na área da saúde para auxiliar diagnósticos e procedimentos médicos, quando houver risco relevante à integridade física e mental das pessoas
8.2.2.1.9. Estudo analítico de crimes relativos a pessoas naturais, permitindo às autoridades policiais pesquisar grandes conjuntos de dados, disponíveis em diferentes fontes de dados ou em diferentes formatos, no intuito de identificar padrões e perfis comportamentais
8.2.2.1.10. Investigação por autoridades administrativas para avaliar a credibilidade dos elementos de prova no decurso da investigação ou repressão de infrações, para prever a ocorrência ou a recorrência de uma infração real ou potencial com base na definição de perfis de pessoas singulares
8.2.2.1.11. Sistemas de identificação e autenticação biométrica para o reconhecimento de emoções, excluindo-se os sistemas de autenticação biométrica cujo único objetivo seja a confirmação de uma pessoa singular específica
8.2.2.1.12. Gestão da imigração e controle de fronteiras para avaliar o ingresso de pessoa ou grupo de pessoas em território nacional
8.2.2.1.13. Produção, curadoria, difusão, recomendação e distribuição, em grande escala e significativamente automatizada, de conteúdo por provedores de aplicação, com objetivo de maximização do tempo de uso e engajamento das pessoas ou grupos afetados, quando o funcionamento desses sistemas puder representar riscos relevantes aos fundamentos previstos no artigo 2° desta Lei
8.2.2.2. Novas hipóteses regulamentadas que se enquadrem em ao menos um dos critérios a seguir (art. 15), precedida de procedimento que garanta participação social e de análise de impacto regulatório (art. 16)
8.2.2.2.1. A implementação ser em larga escala, levando-se em consideração o número estimado de pessoas afetadas e a extensão geográfica, bem como a sua duração e frequência do uso
8.2.2.2.2. O sistema produzir, de forma ilícita ou abusiva, efeitos jurídicos relevantes e impactar negativamente o acesso a serviços públicos ou essenciais
8.2.2.2.3. Alto potencial danoso de ordem material ou moral, bem como viés discriminatório ilegal ou abusivo
8.2.2.2.4. O sistema afetar significativamente pessoas de um grupo vulnerável
8.2.2.2.5. Nível de irreversibilidade dos danos
8.2.2.2.6. Histórico danoso, de ordem material ou moral relevante
8.2.2.2.7. Grau de transparência, explicabilidade e auditabilidade do sistema de IA, que dificulte significativamente o seu controle ou supervisão
8.2.2.2.8. Alto potencial danoso sistêmico, tais como à segurança cibernética, e violência contra grupos vulneráveis
8.2.2.2.9. Extensão e probabilidade dos benefícios do sistema de IA, incluindo as medidas de mitigação dos riscos adotadas e as possíveis melhorias de acordo com os princípios e fundamentos desta lei
8.2.2.2.10. O sistema representar riscos significativos à saúde humana integral – física, mental e social - nas dimensões individual e coletiva
8.2.2.2.11. Risco à integridade da informação, o processo democrático e ao pluralismo político
8.2.2.2.12. O sistema puder impactar negativamente o desenvolvimento e a integridade física, psíquica ou moral de crianças e adolescentes
8.2.2.3. Não são considerados de alto risco quando utilizadas para as finalidades previstas no art. 16 as tecnologias intermediárias que não influenciam ou determinem resultado ou decisão
9. Regulação
9.1. SIA
9.1.1. Integrantes § 1º, Art. 44
9.1.1.1. Autoridade competente (ANPD)
9.1.1.1.1. Considerar o estado da arte do desenvolvimento tecnológico e evolução e harmonização das boas práticas setoriais e não setoriais para fins de monitoramento e reclassificação contínua dos sistemas de IA de alto risco (§ 1º, art. 16)
9.1.1.1.2. Determinar a reclassificação do sistema de IA, mediante notificação prévia, bem como determinar, de forma fundamentada, a realização de avaliação de impacto algorítmico, em colaboração com as autoridades setoriais do SIA. (Art. 12, § 3º)
9.1.1.1.3. Estabelecer diretrizes gerais sobre a forma e as condições de exercício de direitos perante cada um dos agentes de sistema de IA (Art. 10)
9.1.1.1.4. Garantir a aplicação harmônica da Lei (Inciso I, art. 16)
9.1.1.1.5. Expedir orientações normativas gerais em relação aos impactos dos sistemas de IA sobre os direitos e liberdades fundamentais ou que produzam efeitos jurídicos relevantes (Inciso I, art. 16)
9.1.1.1.6. Publicar a lista consolidada de todos os sistemas de alto risco definidos pelas autoridades setoriais (Inciso I, art. 16)
9.1.1.1.7. Estabelecerá critérios gerais e elementos para a elaboração de avaliação de impacto e a periodicidade de atualização das avaliações de impacto, a partir das diretrizes do Conselho Permanente de Cooperação Regulatória (CRIA) (§ 4º, art. 25)
9.1.1.1.8. Definir parâmetros gerais acerca da periodicidade de atualização das avaliações de impacto (I, parágrafo único, art. 27)
9.1.1.1.9. Definir hipóteses em que avaliação de impacto algorítmico será simplificada, observado o papel de cada um dos agentes de IA (II, parágrafo único, art. 27)
9.1.1.1.10. Definir em quais hipóteses as obrigações previstas para SIAPG serão simplificadas ou dispensadas de acordo com o risco envolvido e o estado da arte do desenvolvimento tecnológico (Art. 33)
9.1.1.1.11. Aprovar códigos de conduta e de autorregulação de sistemas de IA de propósito geral. (Art. 33, parágrafo único)
9.1.1.1.12. Coordenar o CRIA a fim de harmonizar e facilitar as suas competências regulatórias, fiscalizatórias e sancionatórias (§ 4º art. 44)
9.1.1.1.13. Atuar na representação do Brasil perante organismos internacionais de IA, sob a coordenação do Poder Executivo (Art. 45, I)
9.1.1.1.14. Expedir, em colaboração com os demais integrantes do SIA, normas vinculantes de caráter geral, sobre Art. 45, II
9.1.1.1.15. Expedir regras gerais sobre IA no país, além de acompanhar a aplicação de regras específicas, dando suporte aos órgãos setoriais, quando necessário (Art 45, III)
9.1.1.1.16. Celebrar com os integrantes do SIA acordos regulatórios para definir regras e procedimentos específicos de coordenação de competências (Art 45, IV)
9.1.1.1.17. Manifestar-se oportunamente e a seu critério nos processos normativos dos órgãos e entes estatais reguladores, sem caráter vinculante expedir regras gerais sobre IA no país, além de acompanhar a aplicação de regras específicas, dando suporte aos órgãos setoriais, quando necessário (Art 45, V)
9.1.1.1.18. Exercer competência normativa, regulatória, fiscalizatória e sancionatória plena para desenvolvimento, implementação e uso de sistemas de IA para atividades econômicas em que não haja órgão ou ente regulador setorial específicoexpedir regras gerais sobre IA no país, além de acompanhar a aplicação de regras específicas, dando suporte aos órgãos setoriais, quando necessário (Art 45, VI)
9.1.1.1.19. Nos ambientes regulatórios experimentais (sandbox regulatório) que envolvam sistemas de IA, conduzidos por autoridades setoriais, a autoridade competente será cientificada, podendo se manifestar quanto ao cumprimento das finalidades e princípios desta lei expedir regras gerais sobre IA no país, além de acompanhar a aplicação de regras específicas, dando suporte aos órgãos setoriais, quando necessário (Art 45, VII)
9.1.1.1.20. Expedir orientações normativas gerais sobre certificados e acreditação de organismos de certificação com o objetivo de incentivar e assegurar melhores práticas de governança ao longo de todo o ciclo de vida de sistemas de IA (Art 45, VIII)
9.1.1.1.21. Zelar pela proteção a direitos fundamentais e a demais direitos afetados pela utilização de sistemas de IA (Art. 48, I)
9.1.1.1.22. Promover e incentivar os códigos de conduta e autorregulação (Art. 48, II)
9.1.1.1.23. Promover ações de cooperação com autoridades de proteção e de fomento ao desenvolvimento e à utilização dos sistemas de IA de outros países, de natureza internacional ou transnacional (Art. 48, III)
9.1.1.1.24. Solicitar, a qualquer momento, às entidades do poder público que desenvolvam ou utilizem sistemas de IA, informe específico sobre o âmbito, a natureza dos dados e os demais detalhes do tratamento realizado, com a possibilidade de emitir parecer técnico complementar para garantir o cumprimento desta Lei (Art. 48, IV)
9.1.1.1.25. Celebrar, em conjunto com as autoridades setoriais, a qualquer momento, compromisso com agentes de IA para eliminar irregularidade, incerteza jurídica ou situação contenciosa no âmbito de processos administrativos (Art. 48, V)
9.1.1.1.26. Elaborar relatórios anuais acerca de suas atividades (Art. 48, VI)
9.1.1.1.27. Realizar auditorias de sistemas de IA de alto risco ou que produzam efeitos jurídicos relevantes quando necessária para a aferição de conformidade com esta Lei, garantido o tratamento confidencial das informações em atenção aos segredos comercial e industrial (Art. 48, VII)
9.1.1.1.28. Determinar ao agente de IA de alto risco que realize auditoria externa e independente (Art. 48, VIII)
9.1.1.1.29. Credenciar instituições, mediante critérios estabelecidos em regulamento sujeito a consulta pública, para acesso a dados para fins de auditorias, garantido a confidencialidade da informação em atenção aos segredos comercial e industrial (Art. 48, IX)
9.1.1.1.30. Credenciar instituições de pesquisa, mediante critérios estabelecidos em regulamento sujeito a consulta pública, para acesso a dados para fins de pesquisa, observados os segredos comercial e industrial, a anonimização e a proteção de dados pessoais (Art. 48, X)
9.1.1.1.31. Recebimento e tratamento de denúncias anônimas, estabelecendo mecanismos de reserva de identidade do denunciante (Art. 48, XI)
9.1.1.1.32. Realizar investigações conjuntas sobre os sistemas de IA de alto risco, em casos de suspeita de violação aos princípios, direitos e deveres previstos nesta Lei ou na legislação setorial aplicável (Art. 48, § 2°)
9.1.1.1.33. Promover e autorizar o funcionamento de ambiente regulatório experimental para inovação em inteligência artificial (sandbox regulatório de IA) por conta própria ou para as entidades que o requererem e preencherem os requisitos especificados por esta Lei e em regulamentação, inclusive em regime de cooperação público-privado (art. 53)
9.1.1.1.34. Regulamentar os procedimentos para a solicitação e autorização de funcionamento de sandboxes regulatórios, podendo limitar ou interromper o seu funcionamento e emitir recomendações, levando em consideração, dentre outros aspectos, a preservação de direitos fundamentais, de direitos dos consumidores potencialmente afetados e a segurança e proteção (Art. 54)
9.1.1.1.35. Proporcionar às micro e pequenas empresas e startups acesso prioritário aos ambientes de testagem, na medida em que cumpram as condições de elegibilidade, os critérios de seleção e demais regulamentos e criar mecanismos para reduzir os custos regulatórios (Art. 54 § 1º e § 2º)
9.1.1.1.36. (ANPD, setoriais e CRIA) Desenvolver diretrizes e normativos para definição de políticas públicas, além do cumprimento pela Administração Pública, direta e indireta, empresas públicas e de todo o setor privado com objetivo de mitigação de risctos sobre o trabalho (Art. 56)
9.1.1.1.37. Deverá estabelecer ambiente regulatório experimental (sandbox) para dispor sobre a transparência devida por agentes de sistemas de inteligência artificial em relação a conteúdos protegidos por direitos autorais e direitos conexos utilizados e treinados no desenvolvimento de sistemas de inteligência artificial disponibilizados com finalidade comercial (art. 65)
9.1.1.2. Autoridades setoriais
9.1.1.2.1. Quanto à sua esfera de competência outorgada por lei, incentivar a adoção de padrões, melhores práticas e modelos de certificação e acreditação reconhecidos internacionalmente (art. 46, IV)
9.1.1.2.2. Estabelecer as medidas de governança adequadas a cada aplicação ou uso de sistemas de IA (art. 46, V)
9.1.1.2.3. Expedir regras específicas para a aplicação de IA, incluindo aspectos relacionados a atividades de alto risco, observadas as normas gerais expedidas pela autoridade competente (art. 46, II)
9.1.1.2.4. Promover e incentivar as medidas de governança para sistemas de IA que se inserem em sua esfera de competência outorgada por lei (art. 46, III)
9.1.1.2.5. Observar as diretrizes e normas gerais para o procedimento de análise, publicização e atualização periódica do código de conduta emitidas pela autoridade competente (§ 4º art. 39)
9.1.1.2.6. Exercer sua competência regulatória, fiscalizatória e sancionatória para desenvolvimento, implementação e uso de sistemas de IA e que se insere em sua esfera de competência outorgada por lei (art. 46, I)
9.1.1.2.7. Definir hipóteses para simplificação ou dispensa de avaliação preliminar, observadas as normas gerais da autoridade competente, com hipóteses a serem definidas pelas autoridades setoriais (§ 4º, art. 12)
9.1.1.2.8. Aprovar códigos de boas condutas quanto à esfera de competência outorgada por lei, devendo sempre informar a autoridade competente (§ 4º art. 39)
9.1.1.2.9. As autoridades setoriais poderão definir hipóteses em que as obrigações de governança estabelecidas em regulamento serão flexibilizadas ou dispensadas, observadas as normas gerais da autoridade competente, tanto para risco geral (Art. 17, § 2º) quanto para alto risco (Art. 18 § 1º)
9.1.1.2.10. Avaliação preliminar simplificada ou dispensada, observadas as normas gerais da autoridade competente, com hipóteses a serem definidas pelas autoridades setoriais (§ 4º, art. 12)
9.1.1.2.11. Regulamentação dos critérios e da periodicidade de atualização das avaliações de impacto, considerando o ciclo de vida dos sistemas de IA de alto risco
9.1.1.2.12. As autoridades setoriais poderão definir hipóteses em que avaliação de impacto algorítmico será simplificada, observado o papel de cada um dos agentes de IA e as normas gerais da autoridade competente (§ 2º, Art. 25)
9.1.1.2.13. Receber e analisar as avaliações de impacto algorítmico (Inciso II, art. 16)
9.1.1.2.14. Considerar o estado da arte do desenvolvimento tecnológico e evolução e harmonização das boas práticas setoriais e não setoriais para fins de monitoramento e reclassificação contínua dos sistemas de IA de alto risco (§ 1º, art. 16)
9.1.1.2.15. Estabelecer listas sobre hipóteses classificadas ou não classificadas como de alto risco (Inciso II, art. 16)
9.1.1.2.16. Precisar o rol de sistemas de alto risco desta Lei (Inciso II, art. 16)
9.1.1.2.17. Verificar a gravidade de incidentes e , caso necessário, determinar ao agente a adoção de providências e medidas para reverter ou mitigar os seus efeitos (§ 2º Art. 41)
9.1.1.2.18. Dispor sobre os aspectos técnicos e específicos de aplicações de IA no mercado regulado (Inciso II, art. 16)
9.1.1.2.19. Promover e autorizar o funcionamento de ambiente regulatório experimental para inovação em inteligência artificial (sandbox regulatório de IA) por conta própria ou para as entidades que o requererem e preencherem os requisitos especificados por esta Lei e em regulamentação, inclusive em regime de cooperação público-privado (art. 53)
9.1.1.2.20. Regulamentar os procedimentos para a solicitação e autorização de funcionamento de sandboxes regulatórios, podendo limitar ou interromper o seu funcionamento e emitir recomendações, levando em consideração, dentre outros aspectos, a preservação de direitos fundamentais, de direitos dos consumidores potencialmente afetados e a segurança e proteção (Art. 54)
9.1.1.2.21. (ANPD, setoriais e CRIA) Desenvolver diretrizes e normativos para definição de políticas públicas, além do cumprimento pela Administração Pública, direta e indireta, empresas públicas e de todo o setor privado com objetivo de mitigação de risctos sobre o trabalho (Art. 56)
9.1.1.2.22. Deverá estabelecer ambiente regulatório experimental (sandbox) para dispor sobre a transparência devida por agentes de sistemas de inteligência artificial em relação a conteúdos protegidos por direitos autorais e direitos conexos utilizados e treinados no desenvolvimento de sistemas de inteligência artificial disponibilizados com finalidade comercial (art. 65)
9.1.1.3. Conselho Permanente de Cooperação Regulatória de Inteligência Artificial (CRIA)
9.1.1.3.1. Produzir diretrizes e ser fórum permanente de colaboração, inclusive por meio de acordos de cooperação técnica, com as autoridades setoriais e com a sociedade civil a fim de harmonizar e facilitar o exercício das atribuições da autoridade competente
9.1.1.3.2. Sugerir ações a serem realizadas pelo SIA
9.1.1.3.3. Elaborar estudos e realizar debates públicos sobre IA
9.1.1.3.4. Disseminar o conhecimento sobre IA
9.1.1.3.5. (ANPD, setoriais e CRIA) Desenvolver diretrizes e normativos para definição de políticas públicas, além do cumprimento pela Administração Pública, direta e indireta, empresas públicas e de todo o setor privado com objetivo de mitigação de risctos sobre o trabalho (Art. 56)
9.1.1.3.6. O CRIA, em cooperação com o Ministério do Meio Ambiente e Mudança do Clima, fomentará pesquisa e o desenvolvimento de programas de certificação para redução do impacto ambiental de sistemas de IA
9.1.1.4. Comitê de Especialistas e Cientistas de Inteligência Artificial (CECIA)
9.1.1.4.1. Orientar e supervisionar tecnicamente e cientificamente o desenvolvimento e aplicação da IA de forma responsável, nos termos definidos por regulamento
9.1.2. Objetivos e fundamentos
9.1.2.1. Valorizar e reforçar as competências regulatória, sancionatória e normativa das autoridades setoriais em harmonia com as correlatas gerais da autoridade competente que coordena o SIA
9.1.2.2. Harmonizar e colaborar com órgãos reguladores de temas transversais
9.2. Dinâmica regulatória
9.2.1. Câmara de Mediação e de Conciliação da Administração Pública Federal a responsável pela resolução de controvérsias regulatórias entre a autoridade competente e as demais entidades do SIA, nos termos do regulamento (art. 47)
9.2.1.1. Atuação será definida pelo Poder Executivo (sem prazo) (Art. 73)
9.2.2. No alto risco, decisões sobre os aspectos técnicos e específicos de aplicações de IA no mercado regulado são de caráter prevalente às autoridades setoriais (art. 16, II)
9.2.3. Os regulamentos e as normas editados pela autoridade competente serão precedidos de consulta pública (Art. 49)
9.3. Flexibilização de obrigações regulatórias
9.3.1. Padrões e formatos abertos e livres (exceção alto risco e e que se enquadrem na Seção V do Capítulo IV) (§ 2º Art. 1o)
9.3.2. Para o fomento nacional (§ 2º Art. 1º)
9.3.3. Avaliação preliminar simplificada ou dispensada, observadas as normas gerais da autoridade competente, com hipóteses a serem definidas pelas autoridades setoriais (§ 4º, art. 12)
9.3.4. As autoridades setoriais poderão definir hipóteses em que as obrigações de governança estabelecidas em regulamento serão flexibilizadas ou dispensadas, observadas as normas gerais da autoridade competente (Art. 17, § 2º)
9.3.4.1. Art. 18 § 1º: Para o alto risco, as obrigações de governança estabelecidas também podem ser flexibilizadas pelas autoridades competentes, observadas as normas gerais da autoridade competente
9.3.5. As autoridades setoriais poderão definir hipóteses em que avaliação de impacto algorítmico será simplificada, observado o papel de cada um dos agentes de IA e as normas gerais da autoridade competente (§ 2º, Art. 25)
9.3.5.1. A simplificação também poderá ser feita pela autoridade competente (II, parágrafo único, art. 27)
9.3.6. As obrigações previstas para SIAPG poderão ser simplificadas ou dispensadas pela autoridade competente (art. 33)
10. Direitos e obrigações dos agentes
10.1. Obrigações
10.1.1. Todos
10.1.1.1. Todos os riscos
10.1.1.1.1. Estabelecer, no mínimo, medidas de transparência quanto ao emprego e à governança de sistemas de IA em especial para a mitigação e prevenção de potenciais vieses discriminatórios (art. 17) ao longo de todo o ciclo de vida do sistema
10.1.1.1.2. Estabelecer processos internos aptos a garantir a segurança dos sistemas e o atendimento dos direitos de pessoa ou grupos afetados, e, observados os segredos comerciais e industriais (art. 17) ao longo de todo o ciclo de vida do sistema
10.1.1.1.3. Manter registro e documentação de todas as avaliações preliminares nos últimos cinco anos, independentemente do grau de risco, para fins de responsabilização e prestação de contas. (Art, 12 § 2º)
10.1.1.1.4. Informar, de forma suficiente, objetiva, clara e acessível, os procedimentos necessários para o exercício dos direitos previstos na Lei (Art. 9º)
10.1.1.1.5. Comunicar imediatamente às autoridades competentes e às pessoas afetadas pelo sistema de IA quando tiverem conhecimento de risco ou impacto inesperado e relevante que apresentem a direitos de pessoas naturais, posteriormente à introdução do sistema no mercado ou utilização em serviço (§ 6º, Art. 25)
10.1.1.1.6. Comunicar, em prazo razoável, às autoridades competentes a ocorrência de graves incidentes de segurança, incluindo quando houver risco à vida e integridade física de pessoas, a interrupção de funcionamento de operações críticas de infraestrutura, graves danos à propriedade ou ao meio ambiente, bem como graves violações aos direitos fundamentais, à integridade da informação e ao processo democrático, nos termos do regulamento (Art. 41.)
10.1.1.1.7. Seguem sujeitos à legislação específica relativa a cibersegurança, proteção de infraestruturas críticas, proteção à vida e à integridade física de pessoas, danos a propriedade ou ao meio ambiente, proteção aos direitos fundamentais e a proteção ao processo democrático (Art. 42)
10.1.1.1.8. Remunerar os titulares dos conteúdos pela utilização de conteúdos protegidos por direitos de autor e direitos conexos em processos de mineração,treinamento ou desenvolvimento de sistemas de IA (Art. 64)
10.1.1.2. Alto risco
10.1.1.2.1. Fornecer, em processo gratuito, em linguagem simples, acessível e adequada que facilite a pessoa compreender o resultado da decisão ou previsão em questão, dentro de um prazo razoável a depender da complexidade do sistema de IA e do número de agentes envolvidos. (Art. 7º)
10.1.1.2.2. Quando o sistema de IA gerar conteúdo sintético, deverá incluir, considerando estado da arte do desenvolvimento tecnológico, identificador em tais conteúdos para verificação de autenticidade ou características de sua proveniência, modificações ou transmissão, conforme regulamento
10.1.2. Aplicadores
10.1.2.1. Todos os riscos
10.1.2.1.1. Realizar avaliação preliminar que determinará o grau de risco conforme critérios do Capítulo III e nas boas práticas, de acordo com o estado da arte e do desenvolvimento tecnológico (art. 12)
10.1.2.2. Alto risco
10.1.2.2.1. Documentar, no formato adequado à cada agente de IA e à tecnologia usada, do funcionamento do sistema e das decisões envolvidas em sua construção, considerando todas as etapas relevantes no ciclo de vida do sistema (art. 18, § 2º)
10.1.2.2.2. Utilizar ferramentas ou processos de registro automático da operação do sistema, de modo a permitir a avaliação de sua acurácia e robustez e a apurar potenciais resultados discriminatórios, e implementação das medidas de mitigação de riscos adotadas, com especial atenção para efeitos adversos (art. 18,§ 2º)
10.1.2.2.3. Registrar fontes automatizadas e o grau de supervisão humana que tenham contribuído para os resultados apresentados pelos sistemas IA (art. 18, § 2º)
10.1.2.2.4. Estabelecer medidas para mitigar e prevenir vieses discriminatórios e incentivar diversidade nas equipes de desenvolvimento, bem como políticas de gestão e governança para promoção da responsabilidade social e sustentável (art. 18, § 2º)
10.1.2.2.5. Realizar avaliação de impacto algorítmico (art. 25)
10.1.2.2.6. Atualizar as avaliações de impacto algorítimico quando forem realizadas alterações significativas nos sistemas (I, parágrafo único, art. 27)
10.1.3. Distribuidores
10.1.3.1. Alto risco
10.1.3.1.1. Assegurar que o sistema de IA cumpra as medidas de governança previstas nesta Lei, antes do sistema ser colocado em circulação no mercado, nos termos do regulamento (Art. 18)
10.1.4. Desenvolvedores
10.1.4.1. Todos os riscos
10.1.4.1.1. Realizar avaliação preliminar que determinará o grau de risco conforme critérios do Capítulo III e nas boas práticas, de acordo com o estado da arte e do desenvolvimento tecnológico (art. 12)
10.1.4.1.2. Desenvolvedores de sistemas de IA devem adotar medidas para coibir o uso de seus sistemas para as hipóteses de risco excessivo (art. 13o, § 2°)
10.1.4.1.3. Informar quais conteúdos protegidos por direitos de autor e conexos foram utilizados nos processos de treinamento dos sistemas de IA, conforme disposto em regulamentação (Art. 60)
10.1.4.2. Alto risco
10.1.4.2.1. Utilizar ferramentas ou processos de registro automático da operação do sistema, de modo a permitir a avaliação de sua acurácia e robustez e a apurar potenciais resultados discriminatórios, e implementação das medidas de mitigação de riscos adotadas, com especial atenção para efeitos adversos (art. 18)
10.1.4.2.2. Documentar, no formato adequado à cada agente de IA e à tecnologia usada, do funcionamento do sistema e das decisões envolvidas em sua construção, considerando todas as etapas relevantes no ciclo de vida do sistema (art. 18)
10.1.4.2.3. Realizar de testes para avaliação de níveis apropriados de confiabilidade (art. 18)
10.1.4.2.4. Registrar fontes automatizadas e o grau de supervisão humana que tenham contribuído para os resultados apresentados pelos sistemas IA (art. 18)
10.1.4.2.5. Utilizar dados de treinamento, validação e teste que sejam adequados, representativos, contendo propriedades estatísticas apropriadas em relação às pessoas afetadas e levando em conta características e elementos específicos do contexto geográfico, comportamental ou funcional no qual o sistema de IA de alto risco será utilizado (art. 18)
10.1.4.2.6. Estabelecer medidas para mitigar e prevenir vieses discriminatórios e incentivar diversidade nas equipes de desenvolvimento, bem como políticas de gestão e governança para promoção da responsabilidade social e sustentável (art. 18)
10.1.4.2.7. Adotar medidas técnicas para viabilizar a explicabilidade dos resultados dos sistemas de IA e de medidas para disponibilizar informações adequadas que permitam a interpretação dos seus resultados e funcionamento, respeitado o sigilo industrial e comercial (art. 18)
10.1.4.2.8. Garantir que seus sistemas estão de acordo com as medidas de governança definidas em todo o Capítulo IV desta Lei, assim como em outras legislações pertinentes em especial do seu respectivo setor (art. 20)
10.1.4.2.9. Realizar avaliação de impacto algorítmico (art. 25)
10.1.4.2.10. Compartilhar com as autoridades competentes as avaliações preliminares e de impacto algorítmico, nos termos do regulamento, cuja metodologia considerará e registrará, ao menos, avaliação dos riscos e benefícios aos direitos fundamentais, medidas de atenuação e efetividade destas medidas de gerenciamento (Art. 25, § 1º)
10.1.4.2.11. Atualizar as avaliações de impacto algorítimico quando forem realizadas alterações significativas nos sistemas (I, parágrafo único, art. 27)
10.1.4.3. SIAPG (Art. 30 e 31)
10.1.4.3.1. Demonstrar por meio de testes e análises adequados, a identificação, a redução e a mitigação de riscos razoavelmente previsíveis, conforme apropriado e tecnicamente viável, incluindo os relativos aos (?) (Art. 30, I)
10.1.4.3.2. Documentar dos riscos não mitigáveis remanescentes após o desenvolvimento, bem como sobre os impactos ambientais e sociais (Art. 30, II)
10.1.4.3.3. Apenas processar e incorporar conjuntos de dados coletados e tratados em conformidade com as exigências legais, sujeitos a uma adequada governança de dados, em especial de acordo com a Lei nº 13.709, de 14 de agosto de 2018 (Lei Geral de Proteçãode Dados Pessoais) e o Capítulo X desta Lei (Art. 30, III)
10.1.4.3.4. Desenvolver o sistema de modo a permitir que alcance, ao longo do seu ciclo de vida, níveis apropriados de desempenho, previsibilidade, interpretabilidade, corrigibilidade, considerando a arte da tecnologia (Art. 30, IV)
10.1.4.3.5. Conceber e desenvolver recorrendo às normas aplicáveis para reduzir, considerando o contexto de uso, a utilização de energia, a utilização de recursos e os resíduos, bem como para aumentar a eficiência energética e a eficiência global do sistema (Art. 30, V)
10.1.4.3.6. Elaborar documentação técnica e instruções de utilização inteligíveis, a fim de permitir que os desenvolvedores posteriores, distribuidores e aplicadores tenham clareza sobre o funcionamento do sistema (Art. 30, VI)
10.1.4.3.7. Manter a documentação técnica referida nos incisos V e VI à disposição da autoridade competente por um período de cinco anos (Art. 30 § 2º)
10.1.4.3.8. Garantir a adoção de medidas para identificação, análise e mitigação de riscos razoavelmente previsíveis no que tange a direitos fundamentais, o meio ambiente, a integridade da informação e o processo democrático (Art. 31)
10.1.4.3.9. Tornar disponível, sempre que solicitado pelos agentes do SIA, no âmbito de processo administrativo específico, material comprobatório das medidas mencionadas no art. 31 (Parágrafo único)
10.1.4.3.10. Cooperar com os demais agentes de sistemas de IA ao longo do período em que esse serviço é prestado e apoiado
10.1.4.3.11. Aplicar demais medidas previstas no capítulo de boas práticas e governança
10.2. Direitos
10.2.1. Aplicador
10.2.1.1. Apresentar petição fundamentada às autoridades competentes juntamente com a sua avaliação preliminar, nos termos do regulamento (§ art. 16 2º)
10.2.2. Desenvolvedor
10.2.2.1. Apresentar petição fundamentada às autoridades competentes juntamente com a sua avaliação preliminar, nos termos do regulamento (§ art. 16 2º,)
11. Responsabilidade Civil
11.1. Permanecem sujeitas às regras de responsabilidade previstas no CDC (art. 34) e ao Código Civil (art. 35) e na legislação pertinente, sem prejuízo da aplicação das demais normas desta Lei
11.2. Salvo disposição legal em sentido contrário, o regime de responsabilidade civil deve levar em consideração o nível de autonomia do sistema de IA e o seu grau de risco, bem como a natureza dos agentes envolvidos e a consequente existência de regime de responsabilidade civil próprio na legislação
11.3. O juiz inverterá o ônus da prova quando a vítima for hipossuficiente ou quando as características de funcionamento do sistema de IA tornem excessivamente oneroso para a vítima provar os requisitos da responsabilidade civil (Art. 36)
11.4. Mantém-se a responsabilidade civil em ambientes de testagem por quaisquer danos infligidos a terceiros em resultado da experimentação art. 37 e art. 55
12. Formação, capacitação e educação
12.1. Poder Público deverá todos os níveis deverá implementar programas (Art. 70) com o objetivo de reduzir as desigualdades, sobretudo em diferentes regiões do país (§ 1º)
12.1.1. I - educação, formação, capacitação, qualificação e requalificação técnica e superior em IA alinhados às demandas do mercado e do setor público;
12.1.2. II - letramento digital para os cidadãos fazerem o melhor uso significativo e com equidade dos sistemas de IA disponíveis, priorizando-se a educação básica, incluindo noções e competências básicas sobre os sistemas de IA e o seu funcionamento, incluindo os diferentes tipos de produtos e utilizações, os seus riscos e os benefícios
12.1.3. III - apoio para trabalhadores impactados e possivelmente afetados pela adoção da IA, com foco na promoção do bem-estar, requalificação, adaptação às novas exigências do mercado de trabalho e reinserção profissional.
12.1.4. IV - conscientização e capacitação em sustentabilidade no campo das tecnologias digitais avançadas, com ênfase em práticas responsáveis na utilização de recursos; e
12.1.5. V - incentivo às instituições de ensino para incluir em seus currículos disciplinas sobre impacto ambiental e sustentabilidade no desenvolvimento e operação de sistemas e aplicações de IA e outras tecnologias digitais avançadas
12.2. Altera a PNED para incluir o termo "considerando especialmente a inteligência artificial"
13. Trabalho
13.1. SIA e CRIA desenvolverão diretrizes e normativos para definição de políticas públicas, além do cumprimento pela Administração Pública, direta e indireta, empresas públicas e de todo o setor privado que tenham por finalidade, dentre outros objetivos:
13.1.1. I – mitigar os potenciais impactos negativos aos trabalhadores, em especial os riscos de deslocamento de emprego e oportunidades de carreira relacionadas;
13.1.2. II – potencializar os impactos positivos aos trabalhadores, em especial para melhoria da saúde e segurança do local de trabalho, além do treinamento e capacitação da força de trabalho, promovendo a valorização e o desenvolvimento profissional;
13.1.3. III – fomentar a negociação coletiva e a pactuação de acordos e convenções coletivas, promovendo o fortalecimento das entidades sindicais neste cenário e o avanço de discussões que visem a melhoria das condições de trabalho da categoria profissional, aliados ao desenvolvimento econômico
13.1.4. IV – fomentar a ampliação dos postos de trabalho e da valorização dos trabalhadores em atividade, assim como o incremento das estruturas organizacionais do trabalho.;
13.1.5. V - fomentar o desenvolvimento de programas de treinamento e capacitação contínua para os trabalhadores em atividade;
13.1.6. VI – elaborar a avaliação de impacto algorítmico do uso de sistemas de inteligência artificial sobre a força de trabalho, de forma a conter e mitigar externalidades negativas aos trabalhadores e ao ambiente de trabalho;
13.1.7. VII - coibir a demissão em massa ou substituição extensiva da força de trabalho pelo uso da IA, especialmente quando desprovida de negociação coletiva;
13.1.8. VIII – garantir a supervisão humana em decisões automatizadas que instituem punições disciplinares e dispensa de trabalhadores.
14. Administrativo e concorrencial
14.1. Concorrência
14.1.1. Os órgãos e entidades integrantes do SIA devem comunicar imediatamente ao CADE quaisquer informações identificadas no decurso das atividades de fiscalização afetos à Lei de Defesa da Concorrência (Art. 48, § 3º)
14.1.2. O CADE poderá ordenar aos desenvolvedores que seja concedido acesso aos conjuntos de dados de treino, validação e teste utilizados para o desenvolvimento dos sistemas de IA de alto risco no exercício das suas atribuições e sempre no limite do que for pertinente e necessário à apuração de indícios concretos de infrações à ordem econômica
14.2. Administrativo
14.2.1. Sanções
14.2.1.1. Penas (Art. 50)
14.2.1.1.1. VI - proibição de tratamento de determinadas bases de dados.
14.2.1.1.2. V - suspensão parcial ou total, temporária ou definitiva, do desenvolvimento, fornecimento ou operação do sistema de IA;
14.2.1.1.3. IV - proibição ou restrição para participar de regime de sandbox regulatório previsto nesta Lei, por até cinco anos;
14.2.1.1.4. III - publicização da infração após devidamente apurada e confirmada a sua ocorrência;
14.2.1.1.5. II - multa simples, limitada, no total, a R$ 50.000.000,00 (cinquenta milhões de reais) por infração, sendo, no caso de pessoa jurídica de direito privado, ou de até 2% (dois por cento) de seu faturamento bruto, de seu grupo ou conglomerado no Brasil no seu último exercício, excluídos os tributos;
14.2.1.1.6. I - advertência;
14.2.1.2. Critérios (Art. 50, § 1º)
14.2.1.2.1. I - a gravidade e a natureza das infrações e a eventual violação de direitos;
14.2.1.2.2. II - a boa-fé do infrator;
14.2.1.2.3. III - a vantagem auferida ou pretendida pelo infrator;
14.2.1.2.4. IV - a condição econômica do infrator;
14.2.1.2.5. V - a reincidência;
14.2.1.2.6. VI - o grau do dano;
14.2.1.2.7. VII - a cooperação do infrator;
14.2.1.2.8. VIII - a adoção reiterada e demonstrada de mecanismos e procedimentos internos capazes de minimizar riscos, inclusive a análise de impacto algorítmico e efetiva implementação de código de ética;
14.2.1.2.9. IX - a adoção de política de boas práticas e governança;
14.2.1.2.10. X - a pronta adoção de medidas corretivas;
14.2.1.2.11. XI - a proporcionalidade entre a gravidade da falta e a intensidade da sanção; e
14.2.1.2.12. XII - a cumulação com outras sanções administrativas eventualmente já aplicadas em definitivo para o mesmo ato ilícito
14.2.2. Processo
14.2.2.1. A autoridade competente definirá, por meio de regulamento próprio, o procedimento de apuração e critérios de aplicação das sanções administrativas. O regulamento será objeto de consulta pública e publicação de metodologias que apresentará objetivamente as formas e dosimetrias das sanções, devendo conter fundamentação detalhada de todos os seus elementos e demonstrando a observância dos critérios previstos nesta Lei (Art. 50 § 6º)
14.2.2.2. Autoridade competente pode adotar medidas preventivas, incluída multa cominatória, observado o limite total a que se refere o inciso II do caput, quando houver indício ou fundado receio de que o agente de IA cause ou possa causar lesão irreparável ou de difícil reparação ou torne ineficaz o resultado final do processo (Art. 50, § 2º)
14.2.2.3. Sanções não substituem a aplicação de sanções administrativas, civis ou penais definidas em outras legislações (Art. 50 § 3º) ou exclui a obrigação da reparação integral do dano (§ 5º)
14.2.2.4. Desenvolvimento, fornecimento ou utilização de sistemas de IA de risco excessivo haverá, no mínimo, aplicação de multa e, no caso de pessoa jurídica, a suspensão parcial ou total, provisória ou definitiva de suas atividades (Art. 50 § 3º)
14.2.2.5. Também há previsão de sanções para os órgãos e entidades da administração pública (Art. 50 § 7º)