Conselho Europeu Aprova Lei sobre a Inteligência Artificial

May 29, 2024

Diferentemente do Mercosul, que não consegue evoluir como bloco econômico para o status de uma união política e monetária, mostrando inúmeras dificuldades em ampliar sua integração econômica e, especialmente, sócio-política, em razão da alternância de governos conservadores e progressistas, com ideologias absolutamente díspares, a União Europeia, apesar da saída do Reino Unido, segue dando exemplos de eficiência na integração de seus países de forma a regular assuntos fundamentais na incorporação de novas tecnologias que impactarão sobremaneira as relações pessoais, educacionais e profissionais. Estamos falando mais especificamente da inteligência artificial (IA).

Inteligência Artificial (IA) é o uso de tecnologia digital para criar sistemas capazes de executar tarefas que normalmente requerem inteligência humana. Algumas tecnologias de IA existem há algumas décadas, mas o desenvolvimento tecnológico dos computadores, a disponibilidade de grandes quantidades de dados e a proliferação de novos software levaram a avanços notáveis em um curtíssimo espaço de tempo.

A IA já se encontra em uso em diversos aspectos da vida cotidiana, como na previsão de desastres naturais, na assistência virtual, em traduções automáticas, no controle de qualidade da fabricação de bens, em diagnósticos médicos, em ferramentas de navegação veicular, entre outros, isso sem falar das ferramentas mais recentes que estão começando a se proliferar para ajudar indivíduos e pessoas jurídicas, de forma geral, em tudo que precisam. Falamos de ferramentas como ChatGPT, Copilot, Gemini, Claude e outras congêneres, com novidades brotando quase que diariamente.

Em 21 de maio de 2024, o Conselho Europeu aprovou uma lei denominada Artificial Intelligence Act (Lei da Inteligência Artificial), sendo a União Europeia inovadora na criação de uma lei destinada a regular e harmonizar as regras relativas à IA em seus Estados-membros. Mas não foi tarefa fácil. Alguns países da União Europeia, especialmente a Alemanha e a França, que abrigam diversas start-ups promissoras de IA, defenderam anteriormente a autorregulação em vez de restrições impostas pelo governo, preocupadas com o fato de uma regulamentação sufocante poder criar obstáculos ao progresso da Europa na competição com empresas chinesas e americanas no setor tecnológico.

A Linha do Tempo da Lei da Inteligência Artificial

Na verdade, as primeiras discussões sobre IA no Conselho Europeu começaram em 2020. Todavia, a Lei da Inteligência Artificial nasceu em 2021, quando o projeto da lei foi criado, dividindo a tecnologia em categorias de risco, que vão desde “inaceitável”, o que implicaria na proibição da referida tecnologia, até alto risco, médio risco e baixo risco. Sistemas de IA como a manipulação cognitivo-comportamental, a pontuação social, o policiamento preditivo baseado em perfis e sistemas que utilizam dados biométricos para categorizar pessoas de acordo com categorias específicas, como raça, religião ou orientação sexual, serão banidos da União Europeia porque seu risco é considerado inaceitável.

Abaixo é possível ver a linha do tempo da Lei da Inteligência Artificial:

A Classificação de Riscos da Lei da Inteligência Artificial

A seguir, temos alguns exemplos, consoante a classificação dos riscos:

CLASSIFICAÇÃO DO RISCO

EXEMPLOS

Inaceitável

Pontuação social, reconhecimento facial em certas circunstâncias

Alto risco

Uso em transportes, para marcar exames, recrutamento, concessão de empréstimos em certas circunstâncias

Médio risco

Chatbots (robôs de conversa)

Baixo risco

Vídeo games, filtros anti-spam

É importante salientar que a Lei da Inteligência Artificial não regulamentará ou afetará os sistemas de IA que apresentem baixo risco. Aqueles com risco médio e que demonstrarem haver riscos sistêmicos, enquadrando-se como limitados, estarão sujeitos a obrigações de transparência muito leves, como a divulgação de que o seu conteúdo foi gerado por IA, para que os usuários possam tomar decisões informadas sobre a utilização posterior; e isso inclui os sistemas destinados a interagir diretamente com seres humanos, de forma que sejam claramente marcados como tal, a menos que sua distinção seja óbvia para os indivíduos interagindo com ela.

Para entendermos melhor especialmente o que significa “inaceitável” e “alto risco”, é necessário considerar os detalhes apresentados abaixo:

CLASSIFICAÇÃO DO RISCO

DESCRIÇÃO

Inaceitável

1. São proibidas as seguintes práticas de IA:
a) A colocação no mercado, a entrada em serviço ou a utilização de um sistema de IA que utilize técnicas subliminares que vão além da consciência de uma pessoa ou técnicas deliberadamente manipuladoras ou enganosas, com o objetivo ou o efeito de distorcer materialmente o comportamento de uma pessoa ou um grupo de pessoas, prejudicando sensivelmente a sua capacidade de tomar uma decisão informada, levando-as assim a tomar uma decisão que de outra forma não teriam tomado de uma forma que cause ou seja razoavelmente provável que cause a essa pessoa, outra pessoa ou grupo de pessoas dano significativo;
(b) A colocação no mercado, a entrada em serviço ou a utilização de um sistema de IA que explore qualquer uma das vulnerabilidades de um indivíduo ou de um grupo específico de pessoas devido à sua idade, deficiência ou a uma situação social ou econômica específica, com o objetivo, ou o efeito, de distorcer materialmente o comportamento dessa pessoa ou de uma pessoa pertencente a esse grupo de uma forma que cause ou tenha probabilidade razoável de causar a essa pessoa ou a outra pessoa danos significativos;
c) A colocação no mercado, a entrada em serviço ou a utilização de sistemas de IA para a avaliação ou classificação de indivíduos ou grupos de pessoas durante um determinado período de tempo com base no seu comportamento social ou em dados pessoais conhecidos, inferidos ou previstos, características de personalidade, com a pontuação social levando a um ou ambos os seguintes:
(i) tratamento prejudicial ou desfavorável de certos indivíduos ou grupos de pessoas em contextos sociais que não estão relacionados aos contextos em que os dados foram originalmente gerados ou recolhidos;
(ii) tratamento prejudicial ou desfavorável de certos indivíduos ou grupos de pessoas que seja injustificado ou desproporcional ao seu comportamento social ou à sua gravidade;
d) A colocação no mercado, a entrada em serviço para este fim específico ou a utilização de um sistema de IA para realizar avaliações de risco de indivíduos, a fim de avaliar ou prever o risco de um indivíduo cometer uma infração penal, com base unicamente na definição do perfil de um indivíduo ou na avaliação dos seus traços e características de personalidade; esta proibição não se aplica aos sistemas de IA utilizados para apoiar a avaliação humana do envolvimento de uma pessoa em uma atividade criminosa, que já se baseia em fatos objetivos e verificáveis ​​diretamente ligados a uma atividade criminosa;
(e) A colocação no mercado, a entrada em serviço para este fim específico ou a utilização de sistemas de IA que criem ou expandam bases de dados de reconhecimento facial através do recolhimento não direcionado de imagens faciais da Internet ou de imagens de CCTV;
(f) A colocação no mercado, a entrada em serviço para este fim específico ou a utilização de sistemas de IA para inferir emoções de um indivíduo nas áreas do local de trabalho e das instituições de ensino, exceto quando a utilização do sistema de IA se destinar a ser implementada ou colocada no mercado por razões médicas ou de segurança;
(g) A colocação no mercado, a entrada em serviço para este fim específico ou a utilização de sistemas de categorização biométrica que categorizem individualmente indivíduos com base nos seus dados biométricos para deduzir ou inferir a sua raça, opiniões políticas, filiação sindical, religião ou crenças filosóficas, vida sexual ou orientação sexual; esta proibição não abrange qualquer rotulagem ou filtragem de conjuntos de dados biométricos adquiridos legalmente, tais como imagens, com base em dados biométricos ou categorização de dados biométricos no domínio da aplicação da lei;
h) A utilização de sistemas de identificação biométrica remota «em tempo real» em espaços acessíveis ao público para efeitos de aplicação da lei, a menos que e na medida em que tal utilização seja estritamente necessária para um dos seguintes objetivos:
(i) a busca direcionada de vítimas específicas de rapto, tráfico de seres humanos ou exploração sexual de seres humanos, bem como a busca de pessoas desaparecidas;
(ii) a prevenção de uma ameaça específica, substancial e iminente à vida ou à segurança física de pessoas singulares ou de uma ameaça real e presente ou genuína e previsível de um ataque terrorista;
(iii) a localização ou identificação de uma pessoa suspeita de ter cometido uma infração penal, para efeitos de investigação ou ação penal ou de execução de uma sanção penal por infrações referidas no Anexo II e puníveis no Estado-membro em causa com pena privativa de liberdade ou pena de detenção por um período máximo de pelo menos quatro anos. A alínea h) do primeiro parágrafo não prejudica o artigo 9.º do Regulamento (UE) 2016/679 relativo ao tratamento de dados biométricos para fins diferentes da aplicação da lei.
2. A utilização de sistemas de identificação biométrica remota «em tempo real» em espaços acessíveis ao público para efeitos de aplicação da lei para qualquer um dos objetivos referidos no n.º 1, primeiro parágrafo, alínea h), deve ser utilizada para os fins definidos nesse ponto apenas para confirmar a identidade da pessoa especificamente visada, e deve ter em conta os seguintes elementos:
a) A natureza da situação que deu origem à possível utilização, em especial a gravidade, a probabilidade e a escala dos danos que seriam causados ​​se o sistema não fosse utilizado;
(b) As consequências da utilização do sistema para os direitos e liberdades de todas as pessoas envolvidas, em especial a gravidade, a probabilidade e a escala dessas consequências. Além disso, a utilização de sistemas de identificação biométrica remota «em tempo real» em espaços acessíveis ao público para efeitos de aplicação da lei para qualquer um dos objetivos referidos no n.º 1, primeiro parágrafo, alínea h), do presente artigo deve cumprir as salvaguardas e as condições necessárias e proporcionais em relação à utilização de acordo com a legislação nacional que autoriza a sua utilização, em particular no que diz respeito às limitações temporais, geográficas e pessoais. A utilização do sistema de identificação biométrica remota «em tempo real» em espaços acessíveis ao público só será autorizada se a autoridade responsável pela aplicação da lei tiver concluído uma avaliação de impacto nos direitos fundamentais, tal como previsto no artigo 27.º, [FA1] e tiver registrado o sistema na base de dados da UE de acordo com Artigo 49.º . No entanto, em casos de urgência devidamente justificados, a utilização de tais sistemas pode ser iniciada sem registro na base de dados da UE, desde que esse registro seja concluído sem demora injustificada.
3. Para efeitos do n.º 1, primeiro parágrafo, alínea h), e do n.º 2, cada utilização, para efeitos de aplicação da lei, de um sistema de identificação biométrica remota «em tempo real» em espaços acessíveis ao público está sujeita a uma autorização prévia, concedida por uma autoridade judicial ou por uma autoridade administrativa independente, cuja decisão vincula o Estado-membro em que a utilização terá lugar, emitida mediante pedido fundamentado e em conformidade com as regras detalhadas do direito nacional referidas no n.º 5. No entanto, em uma situação de urgência devidamente justificada, a utilização desse sistema pode ser iniciada sem autorização, desde que essa autorização seja solicitada sem demora injustificada; o mais tardar, no prazo de 24 horas. Se tal autorização for rejeitada, a utilização será interrompida com efeitos imediatos e todos os dados, bem como os resultados dessa utilização, serão imediatamente descartados e eliminados. A autoridade judiciária competente ou uma autoridade administrativa independente cuja decisão seja vinculativa só concederá a autorização quando se considerar, com base em provas objetivas ou em indicações claras que lhe sejam apresentadas, que a utilização do sistema de identificação biométrica remota «em tempo real» em causa é necessária e proporcional à consecução de um dos objetivos especificados no n.º 1, primeiro parágrafo, alínea h), tal como identificado no pedido e, em particular, permanece limitado ao estritamente necessário no que diz respeito ao período de tempo, assim como o âmbito geográfico e pessoal. Ao decidir sobre o pedido, essa autoridade deve levar em conta os elementos referidos no n.º 2. Nenhuma decisão que produza efeitos jurídicos adversos para uma pessoa pode ser tomada apenas com base nos resultados do sistema de identificação biométrica remota «em tempo real».
4. Sem prejuízo do n.º 3, cada utilização de um sistema de identificação biométrica remota «em tempo real» em espaços acessíveis ao público para fins de aplicação da lei deve ser notificada à autoridade de fiscalização do mercado competente e à autoridade nacional de proteção de dados, em conformidade com as regras nacionais, como referido no n.º 5. A notificação deve conter, no mínimo, as informações especificadas no n.º 6 e não deve incluir dados operacionais sensíveis.
5. Um Estado-membro pode decidir prever a possibilidade de autorizar total ou parcialmente a utilização de sistemas de identificação biométrica remota «em tempo real» em espaços acessíveis ao público para efeitos de aplicação da lei, dentro dos limites e nas condições enumeradas no n.º 1, primeiro parágrafo, alínea h), e n.ºs 2 e 3. Os Estados-membros em causa devem estabelecer na sua legislação nacional as regras pormenorizadas necessárias para o pedido, a emissão e o exercício, bem como para a supervisão e a comunicação de informações relativas às autorizações referidas no n.º 3. Essas regras devem também especificar relativamente a quais dos objetivos enumerados no n.º 1, primeiro parágrafo, alínea h), incluindo quais das infrações penais referidas na alínea h), alínea iii), as autoridades competentes podem ser autorizadas a utilizar esses sistemas para fins de aplicação da lei. Os Estados-membros notificam essas regras à Comissão, o mais tardar, 30 dias após a sua adoção. Os Estados-membros podem introduzir, em conformidade com o direito da União Europeia, leis mais restritivas sobre a utilização de sistemas de identificação biométrica à distância.
6. As autoridades nacionais de fiscalização do mercado e as autoridades nacionais de proteção de dados dos Estados-membros que tenham sido notificadas da utilização de sistemas de identificação biométrica remota «em tempo real» em espaços acessíveis ao público para fins de aplicação da lei nos termos do n.º 4 devem apresentar à Comissão anualmente relatórios sobre esse uso. Para esse efeito, a Comissão fornece aos Estados-membros e às autoridades nacionais de fiscalização do mercado e de proteção de dados, um modelo que inclua informações sobre o número de decisões tomadas pelas autoridades judiciais competentes ou por uma autoridade administrativa independente cuja decisão seja vinculativa para os pedidos de autorizações em conformidade com o parágrafo 3 e seu resultado.
7. A Comissão publica relatórios anuais sobre a utilização de sistemas de identificação biométrica remota em tempo real em espaços acessíveis ao público para fins de aplicação da lei, com base em dados agregados nos Estados-Membros, com base nos relatórios anuais referidos no n.º 6. Esses relatórios anuais não devem incluir dados operacionais sensíveis das atividades conexas de aplicação da lei.

Alto Risco

1. Biometria, na medida em que a sua utilização seja permitida ao abrigo da legislação nacional ou da União Europeia aplicável:
a) Sistemas de identificação biométrica à distância. Isto não inclui sistemas de IA destinados a serem utilizados para verificação biométrica cujo único objetivo seja confirmar que uma pessoa singular específica é a pessoa que afirma ser;
(b) Sistemas de IA destinados a serem utilizados para categorização biométrica, de acordo com atributos ou características sensíveis ou protegidos com base na inferência desses atributos ou características;
(c) Sistemas de IA destinados a serem utilizados para reconhecimento de emoções.
2. Infraestruturas críticas: sistemas de IA destinados a serem utilizados como componentes de segurança na gestão e operação de infraestruturas digitais críticas, no tráfego rodoviário ou no fornecimento de água, gás, aquecimento ou eletricidade.
3. Educação e formação profissional:
(a) Sistemas de IA destinados a serem utilizados para determinar o acesso ou a admissão ou para afetar indivíduos a instituições de ensino e formação profissional a todos os níveis;
(b) Sistemas de IA destinados a serem utilizados para avaliar os resultados da aprendizagem, inclusive quando esses resultados são utilizados para orientar o processo de aprendizagem de indivíduos em instituições de ensino e formação profissional a todos os níveis;
(c) Sistemas de IA destinados a serem utilizados para avaliar o nível adequado de educação que um indivíduo receberá ou poderá aceder, no contexto ou dentro de instituições de ensino e formação profissional a todos os níveis;
(d) Sistemas de IA destinados a serem utilizados para monitorar e detectar comportamentos proibidos de estudantes durante testes no contexto ou dentro de instituições de ensino e formação profissional a todos os níveis.
4. Emprego, gestão de trabalhadores e acesso ao trabalho independente :
(a) Sistemas de IA destinados a serem utilizados para o recrutamento ou seleção de indivíduos, em especial para colocar anúncios de emprego direcionados, analisar e filtrar candidaturas de emprego e avaliar candidatos;
(b) Sistemas de IA destinados a serem utilizados para tomar decisões que afetem os termos das relações profissionais, a promoção ou cessação de relações contratuais relacionadas ao trabalho, para atribuir tarefas com base no comportamento individual ou em traços ou características pessoais ou para monitorar e avaliar o desempenho e comportamento das pessoas em tais relacionamentos.
5. Acesso e usufruto de serviços privados essenciais e serviços e benefícios públicos essenciais :
(a) Sistemas de IA destinados a serem utilizados por autoridades públicas ou em nome de autoridades públicas para avaliar a elegibilidade de indivíduos para benefícios e serviços essenciais de assistência pública, incluindo serviços de saúde, bem como para conceder, reduzir, revogar ou recuperar tais benefícios e serviços;
(b) Sistemas de IA destinados a serem utilizados para avaliar a solvência de indivíduos ou estabelecer a sua pontuação de crédito, com exceção dos sistemas de IA utilizados para efeitos de detecção de fraudes financeiras;
(c) Sistemas de IA destinados a serem utilizados para avaliação de riscos e fixação de preços em relação a indivíduos no caso de seguros de vida e de saúde;
(d) Sistemas de IA destinados a avaliar e classificar chamadas de emergência efetuadas por indivíduos ou a serem utilizados para enviar, ou para estabelecer prioridade no envio de serviços de primeira resposta de emergência, incluindo pela polícia, bombeiros e ajuda médica, bem como de serviços de emergência e sistemas de triagem de pacientes de saúde.
6. Aplicação da lei, na medida em que a sua utilização seja permitida ao abrigo da legislação nacional ou da União Europeia aplicável :
a) Sistemas de IA destinados a serem utilizados pelas autoridades responsáveis ​​pela aplicação da lei ou em seu nome, ou pelas instituições, órgãos, organismos ou agências da União Europeia em apoio às autoridades responsáveis ​​pela aplicação da lei ou em seu nome, para avaliar o risco de um indivíduo se tornar vítima de infrações penais;
(b) Sistemas de IA destinados a serem utilizados por ou em nome das autoridades responsáveis ​​pela aplicação da lei ou pelas instituições, órgãos, organismos ou agências da União Europeia em apoio às autoridades responsáveis ​​pela aplicação da lei, como polígrafos ou ferramentas semelhantes;
c) Sistemas de IA destinados a serem utilizados por ou em nome das autoridades responsáveis ​​pela aplicação da lei, ou pelas instituições, órgãos, organismos ou agências da União, em apoio às autoridades responsáveis ​​pela aplicação da lei, para avaliar a confiabilidade das provas no decurso da investigação ou da ação penal contra infrações penais;
(d) Sistemas de IA destinados a serem utilizados pelas autoridades responsáveis ​​pela aplicação da lei ou em seu nome ou pelas instituições, órgãos, organismos ou agências da União em apoio às autoridades responsáveis ​​pela aplicação da lei para avaliar o risco de um indivíduo cometer ou reincidir, não apenas com base na definição de perfis de indivíduos, tal como referido no artigo 3.º, n.º 4, da Diretriz (UE) 2016/680, ou para avaliar traços e características de personalidade ou comportamentos criminosos anteriores de pessoas singulares ou grupos;
(e) Sistemas de IA destinados a serem utilizados por ou em nome das autoridades responsáveis ​​pela aplicação da lei ou por instituições, órgãos, organismos ou agências da União em apoio às autoridades responsáveis ​​pela aplicação da lei para a definição de perfis de indivíduos, tal como referido no artigo 3.º, n.º 4, da Diretriz (UE) 2016/680 no decurso da detecção, investigação ou repressão de infrações penais.
7. Gestão da migração, do asilo e do controle das fronteiras, na medida em que a sua utilização seja permitida ao abrigo da legislação nacional ou da União Europeia aplicável :
(a) Sistemas de IA destinados a serem utilizados por ou em nome de autoridades públicas competentes ou por instituições, órgãos, organismos ou agências da União Europeia como polígrafos ou ferramentas semelhantes;
(b) Sistemas de IA destinados a serem utilizados por ou em nome de autoridades públicas competentes ou por instituições, órgãos, organismos ou agências da União Europeia para avaliar um risco, incluindo um risco de segurança, um risco de migração irregular ou um risco para a saúde, apresentado por um indivíduo que pretenda entrar ou tenha entrado no território de um Estado-membro;
(c) Sistemas de IA destinados a serem utilizados por ou em nome de autoridades públicas competentes ou por instituições, órgãos, organismos ou agências da União Europeia para ajudar as autoridades públicas competentes na análise de pedidos de asilo, de visto ou de autorização de residência e para reclamações associadas no que diz respeito à elegibilidade dos indivíduos que solicitam cidadania, incluindo avaliações conexas da confiabilidade das provas;
d) Sistemas de IA destinados a serem utilizados por ou em nome de autoridades públicas competentes, ou por instituições, órgãos, organismos ou agências da União Europeia, no contexto da migração, do asilo ou da gestão do controle das fronteiras, para efeitos de detecção, reconhecimento ou identificação de indivíduos, com exceção da verificação de documentos de viagem.
8. Administração da justiça e processos democráticos:
(a) Sistemas de IA destinados a serem utilizados por uma autoridade judicial ou em seu nome para ajudar uma autoridade judicial na investigação e interpretação de fatos e da lei e na aplicação da lei a um conjunto concreto de fatos, ou a serem utilizados de forma semelhante na resolução alternativa de litígios;
(b) Sistemas de IA destinados a influenciar o resultado de uma eleição ou referendo ou o comportamento eleitoral de indivíduos no exercício do seu voto em eleições ou referendos. Isto não inclui sistemas de IA aos quais os indivíduos não estão diretamente expostos, tais como ferramentas utilizadas para organizar, otimizar ou estruturar campanhas políticas do ponto de vista administrativo ou logístico.


alterar para maiúscula [FA1]

A Lei de Inteligência Artificial também aborda o uso de modelos de IA de uso geral (GPAI). Os modelos GPAI que não apresentam riscos sistêmicos estarão sujeitos a alguns requisitos limitados, por exemplo no que diz respeito à transparência, mas aqueles com riscos sistêmicos terão de cumprir regras mais rigorosas.

Enquanto os desenvolvedores e implementadores cuja tecnologia se enquadre em inaceitável terão que interromper o desenvolvimento de tal tecnologia, os desenvolvedores e implementadores cuja tecnologia se enquadre em alto risco devem estar preparados para cumprir os seguintes requisitos da Lei de Inteligência Artificial:

1. registrar-se na base de dados centralizada da União Europeia.

2. ter um sistema de gestão de qualidade compatível em vigor.

3. manter documentação e registros adequados.

4. passar por avaliações de compliance relevantes.

5. cumprir as restrições ao uso de inteligência artificial de alto risco.

6. continuar a garantir o compliance regulatório e estar preparado para demonstrar tal compliance mediante solicitação.

Conforme a CNBC confirmou em seu excelente artigo jornalístico sobre a regulação da IA, os governos temem a possibilidade de deepfakes, ou seja, formas de IA que geram eventos falsos, incluindo fotos e vídeos, sendo implementadas em eleições globais a cargos políticos importantes este ano.

Criação da Governança de Inteligência Artificial

Recentemente, foi criado o Gabinete de Inteligência Artificial da União Europeia, que desempenhará um papel fundamental na implementação da Lei da Inteligência Artificial, apoiando os órgãos de governança dos Estados-membros nas suas tarefas e aplicando as regras para modelos de IA de uso geral. Essas prerrogativas são suportadas pelos poderes conferidos pela Lei da Inteligência Artificial, incluindo a capacidade de realizar avaliações de modelos de IA de uso geral, solicitar informações e medidas aos fornecedores de modelos e aplicar sanções. O Gabinete também promoverá um ecossistema inovador de IA confiável, para colher os benefícios sociais e econômicos, garantindo uma abordagem europeia estratégica, coerente e eficaz em matéria de IA a nível internacional, tornando-se um ponto de referência mundial.

O Gabinete também terá o apoio de um painel científico de peritos independentes que apoiarão as atividades de fiscalização.

Foi igualmente criado um Conselho de Inteligência Artificial, com representantes dos Estados-membros para aconselhar e ajudar a Comissão Europeia e os Estados-membros na aplicação consistente e eficaz da Lei da Inteligência Artificial.

Por fim, foi estabelecido um fórum consultivo para as partes interessadas, incluindo indivíduos e pessoas jurídicas, fornecerem conhecimentos técnicos ao Conselho de Inteligência Artificial e à Comissão Europeia.

Penalidades por Violação da Lei da Inteligência Artificial

As multas por infrações à Lei da Inteligência Artificial serão fixadas em até 7% do volume de negócios anual global da empresa infratora no exercício anterior ou em um montante pré-determinado de EUR 35.000.000,00, o que for maior. As pequenas e médias empresas (PME) e as start-ups estarão sujeitas a multas administrativas proporcionais ou ao montante pré-determinado, mas, ao contrário, sempre o que for menor.

Aliás, o fornecimento de informações incorretas, incompletas ou enganosas aos organismos notificados ou às autoridades nacionais competentes em resposta a um pedido está sujeito a multas administrativas de até 7.500. 000,00 EUR ou, se o infrator for uma empresa, até 1 % do valor o seu volume de negócios anual total a nível mundial relativo ao exercício financeiro anterior, consoante o que for mais elevado.

Para a dosimetria da penalidade, os seguintes parâmetros devem ser considerados:

1. A natureza, a gravidade e a duração da infração e das suas consequências, tendo em conta a finalidade do sistema de IA, bem como, se for caso disso, o número de pessoas afetadas e o nível dos danos por elas sofridos.

2. Se já foram aplicadas multas administrativas por outras autoridades de fiscalização do mercado ao mesmo operador pela mesma infração.

3. Se já foram aplicadas multas administrativas por outras autoridades ao mesmo operador por infrações a outro direito da União Europeia ou da legislação nacional, quando essas infrações resultem da mesma atividade ou omissão que constitua uma infração relevante ao presente regulamento.

4. A dimensão, o volume de negócios anual e a quota de mercado do operador que comete a infração.

5. Qualquer outro fator agravante ou atenuante aplicável às circunstâncias do caso, tais como benefícios financeiros obtidos ou perdas evitadas, direta ou indiretamente, decorrentes da infração.

6. O grau de cooperação com as autoridades nacionais competentes, a fim de remediar a infração e atenuar os possíveis efeitos adversos da infração.

7. O grau de responsabilidade do operador, tendo em conta as medidas técnicas e organizacionais por ele implementadas.

8. A forma como as autoridades nacionais competentes tomaram conhecimento da infração, nomeadamente se, e em caso afirmativo, em que medida, o operador notificou a infração.

9. O caráter intencional ou negligente da infração.

10. Qualquer ação tomada pelo operador para mitigar os danos sofridos pelas pessoas afetadas.

RECENT POSTS

LINKEDIN FEED

Newsletter

Register your email and receive our updates

Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.

FOLLOW US ON SOCIAL MEDIA

Newsletter

Register your email and receive our updates-

Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.

FOLLOW US ON SOCIAL MEDIA

Licks Attorneys' Government Affairs & International Relations Blog

Doing Business in Brazil: Political and economic landscape

Licks Attorneys' COMPLIANCE Blog

Conselho Europeu Aprova Lei sobre a Inteligência Artificial

No items found.

Diferentemente do Mercosul, que não consegue evoluir como bloco econômico para o status de uma união política e monetária, mostrando inúmeras dificuldades em ampliar sua integração econômica e, especialmente, sócio-política, em razão da alternância de governos conservadores e progressistas, com ideologias absolutamente díspares, a União Europeia, apesar da saída do Reino Unido, segue dando exemplos de eficiência na integração de seus países de forma a regular assuntos fundamentais na incorporação de novas tecnologias que impactarão sobremaneira as relações pessoais, educacionais e profissionais. Estamos falando mais especificamente da inteligência artificial (IA).

Inteligência Artificial (IA) é o uso de tecnologia digital para criar sistemas capazes de executar tarefas que normalmente requerem inteligência humana. Algumas tecnologias de IA existem há algumas décadas, mas o desenvolvimento tecnológico dos computadores, a disponibilidade de grandes quantidades de dados e a proliferação de novos software levaram a avanços notáveis em um curtíssimo espaço de tempo.

A IA já se encontra em uso em diversos aspectos da vida cotidiana, como na previsão de desastres naturais, na assistência virtual, em traduções automáticas, no controle de qualidade da fabricação de bens, em diagnósticos médicos, em ferramentas de navegação veicular, entre outros, isso sem falar das ferramentas mais recentes que estão começando a se proliferar para ajudar indivíduos e pessoas jurídicas, de forma geral, em tudo que precisam. Falamos de ferramentas como ChatGPT, Copilot, Gemini, Claude e outras congêneres, com novidades brotando quase que diariamente.

Em 21 de maio de 2024, o Conselho Europeu aprovou uma lei denominada Artificial Intelligence Act (Lei da Inteligência Artificial), sendo a União Europeia inovadora na criação de uma lei destinada a regular e harmonizar as regras relativas à IA em seus Estados-membros. Mas não foi tarefa fácil. Alguns países da União Europeia, especialmente a Alemanha e a França, que abrigam diversas start-ups promissoras de IA, defenderam anteriormente a autorregulação em vez de restrições impostas pelo governo, preocupadas com o fato de uma regulamentação sufocante poder criar obstáculos ao progresso da Europa na competição com empresas chinesas e americanas no setor tecnológico.

A Linha do Tempo da Lei da Inteligência Artificial

Na verdade, as primeiras discussões sobre IA no Conselho Europeu começaram em 2020. Todavia, a Lei da Inteligência Artificial nasceu em 2021, quando o projeto da lei foi criado, dividindo a tecnologia em categorias de risco, que vão desde “inaceitável”, o que implicaria na proibição da referida tecnologia, até alto risco, médio risco e baixo risco. Sistemas de IA como a manipulação cognitivo-comportamental, a pontuação social, o policiamento preditivo baseado em perfis e sistemas que utilizam dados biométricos para categorizar pessoas de acordo com categorias específicas, como raça, religião ou orientação sexual, serão banidos da União Europeia porque seu risco é considerado inaceitável.

Abaixo é possível ver a linha do tempo da Lei da Inteligência Artificial:

A Classificação de Riscos da Lei da Inteligência Artificial

A seguir, temos alguns exemplos, consoante a classificação dos riscos:

CLASSIFICAÇÃO DO RISCO

EXEMPLOS

Inaceitável

Pontuação social, reconhecimento facial em certas circunstâncias

Alto risco

Uso em transportes, para marcar exames, recrutamento, concessão de empréstimos em certas circunstâncias

Médio risco

Chatbots (robôs de conversa)

Baixo risco

Vídeo games, filtros anti-spam

É importante salientar que a Lei da Inteligência Artificial não regulamentará ou afetará os sistemas de IA que apresentem baixo risco. Aqueles com risco médio e que demonstrarem haver riscos sistêmicos, enquadrando-se como limitados, estarão sujeitos a obrigações de transparência muito leves, como a divulgação de que o seu conteúdo foi gerado por IA, para que os usuários possam tomar decisões informadas sobre a utilização posterior; e isso inclui os sistemas destinados a interagir diretamente com seres humanos, de forma que sejam claramente marcados como tal, a menos que sua distinção seja óbvia para os indivíduos interagindo com ela.

Para entendermos melhor especialmente o que significa “inaceitável” e “alto risco”, é necessário considerar os detalhes apresentados abaixo:

CLASSIFICAÇÃO DO RISCO

DESCRIÇÃO

Inaceitável

1. São proibidas as seguintes práticas de IA:
a) A colocação no mercado, a entrada em serviço ou a utilização de um sistema de IA que utilize técnicas subliminares que vão além da consciência de uma pessoa ou técnicas deliberadamente manipuladoras ou enganosas, com o objetivo ou o efeito de distorcer materialmente o comportamento de uma pessoa ou um grupo de pessoas, prejudicando sensivelmente a sua capacidade de tomar uma decisão informada, levando-as assim a tomar uma decisão que de outra forma não teriam tomado de uma forma que cause ou seja razoavelmente provável que cause a essa pessoa, outra pessoa ou grupo de pessoas dano significativo;
(b) A colocação no mercado, a entrada em serviço ou a utilização de um sistema de IA que explore qualquer uma das vulnerabilidades de um indivíduo ou de um grupo específico de pessoas devido à sua idade, deficiência ou a uma situação social ou econômica específica, com o objetivo, ou o efeito, de distorcer materialmente o comportamento dessa pessoa ou de uma pessoa pertencente a esse grupo de uma forma que cause ou tenha probabilidade razoável de causar a essa pessoa ou a outra pessoa danos significativos;
c) A colocação no mercado, a entrada em serviço ou a utilização de sistemas de IA para a avaliação ou classificação de indivíduos ou grupos de pessoas durante um determinado período de tempo com base no seu comportamento social ou em dados pessoais conhecidos, inferidos ou previstos, características de personalidade, com a pontuação social levando a um ou ambos os seguintes:
(i) tratamento prejudicial ou desfavorável de certos indivíduos ou grupos de pessoas em contextos sociais que não estão relacionados aos contextos em que os dados foram originalmente gerados ou recolhidos;
(ii) tratamento prejudicial ou desfavorável de certos indivíduos ou grupos de pessoas que seja injustificado ou desproporcional ao seu comportamento social ou à sua gravidade;
d) A colocação no mercado, a entrada em serviço para este fim específico ou a utilização de um sistema de IA para realizar avaliações de risco de indivíduos, a fim de avaliar ou prever o risco de um indivíduo cometer uma infração penal, com base unicamente na definição do perfil de um indivíduo ou na avaliação dos seus traços e características de personalidade; esta proibição não se aplica aos sistemas de IA utilizados para apoiar a avaliação humana do envolvimento de uma pessoa em uma atividade criminosa, que já se baseia em fatos objetivos e verificáveis ​​diretamente ligados a uma atividade criminosa;
(e) A colocação no mercado, a entrada em serviço para este fim específico ou a utilização de sistemas de IA que criem ou expandam bases de dados de reconhecimento facial através do recolhimento não direcionado de imagens faciais da Internet ou de imagens de CCTV;
(f) A colocação no mercado, a entrada em serviço para este fim específico ou a utilização de sistemas de IA para inferir emoções de um indivíduo nas áreas do local de trabalho e das instituições de ensino, exceto quando a utilização do sistema de IA se destinar a ser implementada ou colocada no mercado por razões médicas ou de segurança;
(g) A colocação no mercado, a entrada em serviço para este fim específico ou a utilização de sistemas de categorização biométrica que categorizem individualmente indivíduos com base nos seus dados biométricos para deduzir ou inferir a sua raça, opiniões políticas, filiação sindical, religião ou crenças filosóficas, vida sexual ou orientação sexual; esta proibição não abrange qualquer rotulagem ou filtragem de conjuntos de dados biométricos adquiridos legalmente, tais como imagens, com base em dados biométricos ou categorização de dados biométricos no domínio da aplicação da lei;
h) A utilização de sistemas de identificação biométrica remota «em tempo real» em espaços acessíveis ao público para efeitos de aplicação da lei, a menos que e na medida em que tal utilização seja estritamente necessária para um dos seguintes objetivos:
(i) a busca direcionada de vítimas específicas de rapto, tráfico de seres humanos ou exploração sexual de seres humanos, bem como a busca de pessoas desaparecidas;
(ii) a prevenção de uma ameaça específica, substancial e iminente à vida ou à segurança física de pessoas singulares ou de uma ameaça real e presente ou genuína e previsível de um ataque terrorista;
(iii) a localização ou identificação de uma pessoa suspeita de ter cometido uma infração penal, para efeitos de investigação ou ação penal ou de execução de uma sanção penal por infrações referidas no Anexo II e puníveis no Estado-membro em causa com pena privativa de liberdade ou pena de detenção por um período máximo de pelo menos quatro anos. A alínea h) do primeiro parágrafo não prejudica o artigo 9.º do Regulamento (UE) 2016/679 relativo ao tratamento de dados biométricos para fins diferentes da aplicação da lei.
2. A utilização de sistemas de identificação biométrica remota «em tempo real» em espaços acessíveis ao público para efeitos de aplicação da lei para qualquer um dos objetivos referidos no n.º 1, primeiro parágrafo, alínea h), deve ser utilizada para os fins definidos nesse ponto apenas para confirmar a identidade da pessoa especificamente visada, e deve ter em conta os seguintes elementos:
a) A natureza da situação que deu origem à possível utilização, em especial a gravidade, a probabilidade e a escala dos danos que seriam causados ​​se o sistema não fosse utilizado;
(b) As consequências da utilização do sistema para os direitos e liberdades de todas as pessoas envolvidas, em especial a gravidade, a probabilidade e a escala dessas consequências. Além disso, a utilização de sistemas de identificação biométrica remota «em tempo real» em espaços acessíveis ao público para efeitos de aplicação da lei para qualquer um dos objetivos referidos no n.º 1, primeiro parágrafo, alínea h), do presente artigo deve cumprir as salvaguardas e as condições necessárias e proporcionais em relação à utilização de acordo com a legislação nacional que autoriza a sua utilização, em particular no que diz respeito às limitações temporais, geográficas e pessoais. A utilização do sistema de identificação biométrica remota «em tempo real» em espaços acessíveis ao público só será autorizada se a autoridade responsável pela aplicação da lei tiver concluído uma avaliação de impacto nos direitos fundamentais, tal como previsto no artigo 27.º, [FA1] e tiver registrado o sistema na base de dados da UE de acordo com Artigo 49.º . No entanto, em casos de urgência devidamente justificados, a utilização de tais sistemas pode ser iniciada sem registro na base de dados da UE, desde que esse registro seja concluído sem demora injustificada.
3. Para efeitos do n.º 1, primeiro parágrafo, alínea h), e do n.º 2, cada utilização, para efeitos de aplicação da lei, de um sistema de identificação biométrica remota «em tempo real» em espaços acessíveis ao público está sujeita a uma autorização prévia, concedida por uma autoridade judicial ou por uma autoridade administrativa independente, cuja decisão vincula o Estado-membro em que a utilização terá lugar, emitida mediante pedido fundamentado e em conformidade com as regras detalhadas do direito nacional referidas no n.º 5. No entanto, em uma situação de urgência devidamente justificada, a utilização desse sistema pode ser iniciada sem autorização, desde que essa autorização seja solicitada sem demora injustificada; o mais tardar, no prazo de 24 horas. Se tal autorização for rejeitada, a utilização será interrompida com efeitos imediatos e todos os dados, bem como os resultados dessa utilização, serão imediatamente descartados e eliminados. A autoridade judiciária competente ou uma autoridade administrativa independente cuja decisão seja vinculativa só concederá a autorização quando se considerar, com base em provas objetivas ou em indicações claras que lhe sejam apresentadas, que a utilização do sistema de identificação biométrica remota «em tempo real» em causa é necessária e proporcional à consecução de um dos objetivos especificados no n.º 1, primeiro parágrafo, alínea h), tal como identificado no pedido e, em particular, permanece limitado ao estritamente necessário no que diz respeito ao período de tempo, assim como o âmbito geográfico e pessoal. Ao decidir sobre o pedido, essa autoridade deve levar em conta os elementos referidos no n.º 2. Nenhuma decisão que produza efeitos jurídicos adversos para uma pessoa pode ser tomada apenas com base nos resultados do sistema de identificação biométrica remota «em tempo real».
4. Sem prejuízo do n.º 3, cada utilização de um sistema de identificação biométrica remota «em tempo real» em espaços acessíveis ao público para fins de aplicação da lei deve ser notificada à autoridade de fiscalização do mercado competente e à autoridade nacional de proteção de dados, em conformidade com as regras nacionais, como referido no n.º 5. A notificação deve conter, no mínimo, as informações especificadas no n.º 6 e não deve incluir dados operacionais sensíveis.
5. Um Estado-membro pode decidir prever a possibilidade de autorizar total ou parcialmente a utilização de sistemas de identificação biométrica remota «em tempo real» em espaços acessíveis ao público para efeitos de aplicação da lei, dentro dos limites e nas condições enumeradas no n.º 1, primeiro parágrafo, alínea h), e n.ºs 2 e 3. Os Estados-membros em causa devem estabelecer na sua legislação nacional as regras pormenorizadas necessárias para o pedido, a emissão e o exercício, bem como para a supervisão e a comunicação de informações relativas às autorizações referidas no n.º 3. Essas regras devem também especificar relativamente a quais dos objetivos enumerados no n.º 1, primeiro parágrafo, alínea h), incluindo quais das infrações penais referidas na alínea h), alínea iii), as autoridades competentes podem ser autorizadas a utilizar esses sistemas para fins de aplicação da lei. Os Estados-membros notificam essas regras à Comissão, o mais tardar, 30 dias após a sua adoção. Os Estados-membros podem introduzir, em conformidade com o direito da União Europeia, leis mais restritivas sobre a utilização de sistemas de identificação biométrica à distância.
6. As autoridades nacionais de fiscalização do mercado e as autoridades nacionais de proteção de dados dos Estados-membros que tenham sido notificadas da utilização de sistemas de identificação biométrica remota «em tempo real» em espaços acessíveis ao público para fins de aplicação da lei nos termos do n.º 4 devem apresentar à Comissão anualmente relatórios sobre esse uso. Para esse efeito, a Comissão fornece aos Estados-membros e às autoridades nacionais de fiscalização do mercado e de proteção de dados, um modelo que inclua informações sobre o número de decisões tomadas pelas autoridades judiciais competentes ou por uma autoridade administrativa independente cuja decisão seja vinculativa para os pedidos de autorizações em conformidade com o parágrafo 3 e seu resultado.
7. A Comissão publica relatórios anuais sobre a utilização de sistemas de identificação biométrica remota em tempo real em espaços acessíveis ao público para fins de aplicação da lei, com base em dados agregados nos Estados-Membros, com base nos relatórios anuais referidos no n.º 6. Esses relatórios anuais não devem incluir dados operacionais sensíveis das atividades conexas de aplicação da lei.

Alto Risco

1. Biometria, na medida em que a sua utilização seja permitida ao abrigo da legislação nacional ou da União Europeia aplicável:
a) Sistemas de identificação biométrica à distância. Isto não inclui sistemas de IA destinados a serem utilizados para verificação biométrica cujo único objetivo seja confirmar que uma pessoa singular específica é a pessoa que afirma ser;
(b) Sistemas de IA destinados a serem utilizados para categorização biométrica, de acordo com atributos ou características sensíveis ou protegidos com base na inferência desses atributos ou características;
(c) Sistemas de IA destinados a serem utilizados para reconhecimento de emoções.
2. Infraestruturas críticas: sistemas de IA destinados a serem utilizados como componentes de segurança na gestão e operação de infraestruturas digitais críticas, no tráfego rodoviário ou no fornecimento de água, gás, aquecimento ou eletricidade.
3. Educação e formação profissional:
(a) Sistemas de IA destinados a serem utilizados para determinar o acesso ou a admissão ou para afetar indivíduos a instituições de ensino e formação profissional a todos os níveis;
(b) Sistemas de IA destinados a serem utilizados para avaliar os resultados da aprendizagem, inclusive quando esses resultados são utilizados para orientar o processo de aprendizagem de indivíduos em instituições de ensino e formação profissional a todos os níveis;
(c) Sistemas de IA destinados a serem utilizados para avaliar o nível adequado de educação que um indivíduo receberá ou poderá aceder, no contexto ou dentro de instituições de ensino e formação profissional a todos os níveis;
(d) Sistemas de IA destinados a serem utilizados para monitorar e detectar comportamentos proibidos de estudantes durante testes no contexto ou dentro de instituições de ensino e formação profissional a todos os níveis.
4. Emprego, gestão de trabalhadores e acesso ao trabalho independente :
(a) Sistemas de IA destinados a serem utilizados para o recrutamento ou seleção de indivíduos, em especial para colocar anúncios de emprego direcionados, analisar e filtrar candidaturas de emprego e avaliar candidatos;
(b) Sistemas de IA destinados a serem utilizados para tomar decisões que afetem os termos das relações profissionais, a promoção ou cessação de relações contratuais relacionadas ao trabalho, para atribuir tarefas com base no comportamento individual ou em traços ou características pessoais ou para monitorar e avaliar o desempenho e comportamento das pessoas em tais relacionamentos.
5. Acesso e usufruto de serviços privados essenciais e serviços e benefícios públicos essenciais :
(a) Sistemas de IA destinados a serem utilizados por autoridades públicas ou em nome de autoridades públicas para avaliar a elegibilidade de indivíduos para benefícios e serviços essenciais de assistência pública, incluindo serviços de saúde, bem como para conceder, reduzir, revogar ou recuperar tais benefícios e serviços;
(b) Sistemas de IA destinados a serem utilizados para avaliar a solvência de indivíduos ou estabelecer a sua pontuação de crédito, com exceção dos sistemas de IA utilizados para efeitos de detecção de fraudes financeiras;
(c) Sistemas de IA destinados a serem utilizados para avaliação de riscos e fixação de preços em relação a indivíduos no caso de seguros de vida e de saúde;
(d) Sistemas de IA destinados a avaliar e classificar chamadas de emergência efetuadas por indivíduos ou a serem utilizados para enviar, ou para estabelecer prioridade no envio de serviços de primeira resposta de emergência, incluindo pela polícia, bombeiros e ajuda médica, bem como de serviços de emergência e sistemas de triagem de pacientes de saúde.
6. Aplicação da lei, na medida em que a sua utilização seja permitida ao abrigo da legislação nacional ou da União Europeia aplicável :
a) Sistemas de IA destinados a serem utilizados pelas autoridades responsáveis ​​pela aplicação da lei ou em seu nome, ou pelas instituições, órgãos, organismos ou agências da União Europeia em apoio às autoridades responsáveis ​​pela aplicação da lei ou em seu nome, para avaliar o risco de um indivíduo se tornar vítima de infrações penais;
(b) Sistemas de IA destinados a serem utilizados por ou em nome das autoridades responsáveis ​​pela aplicação da lei ou pelas instituições, órgãos, organismos ou agências da União Europeia em apoio às autoridades responsáveis ​​pela aplicação da lei, como polígrafos ou ferramentas semelhantes;
c) Sistemas de IA destinados a serem utilizados por ou em nome das autoridades responsáveis ​​pela aplicação da lei, ou pelas instituições, órgãos, organismos ou agências da União, em apoio às autoridades responsáveis ​​pela aplicação da lei, para avaliar a confiabilidade das provas no decurso da investigação ou da ação penal contra infrações penais;
(d) Sistemas de IA destinados a serem utilizados pelas autoridades responsáveis ​​pela aplicação da lei ou em seu nome ou pelas instituições, órgãos, organismos ou agências da União em apoio às autoridades responsáveis ​​pela aplicação da lei para avaliar o risco de um indivíduo cometer ou reincidir, não apenas com base na definição de perfis de indivíduos, tal como referido no artigo 3.º, n.º 4, da Diretriz (UE) 2016/680, ou para avaliar traços e características de personalidade ou comportamentos criminosos anteriores de pessoas singulares ou grupos;
(e) Sistemas de IA destinados a serem utilizados por ou em nome das autoridades responsáveis ​​pela aplicação da lei ou por instituições, órgãos, organismos ou agências da União em apoio às autoridades responsáveis ​​pela aplicação da lei para a definição de perfis de indivíduos, tal como referido no artigo 3.º, n.º 4, da Diretriz (UE) 2016/680 no decurso da detecção, investigação ou repressão de infrações penais.
7. Gestão da migração, do asilo e do controle das fronteiras, na medida em que a sua utilização seja permitida ao abrigo da legislação nacional ou da União Europeia aplicável :
(a) Sistemas de IA destinados a serem utilizados por ou em nome de autoridades públicas competentes ou por instituições, órgãos, organismos ou agências da União Europeia como polígrafos ou ferramentas semelhantes;
(b) Sistemas de IA destinados a serem utilizados por ou em nome de autoridades públicas competentes ou por instituições, órgãos, organismos ou agências da União Europeia para avaliar um risco, incluindo um risco de segurança, um risco de migração irregular ou um risco para a saúde, apresentado por um indivíduo que pretenda entrar ou tenha entrado no território de um Estado-membro;
(c) Sistemas de IA destinados a serem utilizados por ou em nome de autoridades públicas competentes ou por instituições, órgãos, organismos ou agências da União Europeia para ajudar as autoridades públicas competentes na análise de pedidos de asilo, de visto ou de autorização de residência e para reclamações associadas no que diz respeito à elegibilidade dos indivíduos que solicitam cidadania, incluindo avaliações conexas da confiabilidade das provas;
d) Sistemas de IA destinados a serem utilizados por ou em nome de autoridades públicas competentes, ou por instituições, órgãos, organismos ou agências da União Europeia, no contexto da migração, do asilo ou da gestão do controle das fronteiras, para efeitos de detecção, reconhecimento ou identificação de indivíduos, com exceção da verificação de documentos de viagem.
8. Administração da justiça e processos democráticos:
(a) Sistemas de IA destinados a serem utilizados por uma autoridade judicial ou em seu nome para ajudar uma autoridade judicial na investigação e interpretação de fatos e da lei e na aplicação da lei a um conjunto concreto de fatos, ou a serem utilizados de forma semelhante na resolução alternativa de litígios;
(b) Sistemas de IA destinados a influenciar o resultado de uma eleição ou referendo ou o comportamento eleitoral de indivíduos no exercício do seu voto em eleições ou referendos. Isto não inclui sistemas de IA aos quais os indivíduos não estão diretamente expostos, tais como ferramentas utilizadas para organizar, otimizar ou estruturar campanhas políticas do ponto de vista administrativo ou logístico.


alterar para maiúscula [FA1]

A Lei de Inteligência Artificial também aborda o uso de modelos de IA de uso geral (GPAI). Os modelos GPAI que não apresentam riscos sistêmicos estarão sujeitos a alguns requisitos limitados, por exemplo no que diz respeito à transparência, mas aqueles com riscos sistêmicos terão de cumprir regras mais rigorosas.

Enquanto os desenvolvedores e implementadores cuja tecnologia se enquadre em inaceitável terão que interromper o desenvolvimento de tal tecnologia, os desenvolvedores e implementadores cuja tecnologia se enquadre em alto risco devem estar preparados para cumprir os seguintes requisitos da Lei de Inteligência Artificial:

1. registrar-se na base de dados centralizada da União Europeia.

2. ter um sistema de gestão de qualidade compatível em vigor.

3. manter documentação e registros adequados.

4. passar por avaliações de compliance relevantes.

5. cumprir as restrições ao uso de inteligência artificial de alto risco.

6. continuar a garantir o compliance regulatório e estar preparado para demonstrar tal compliance mediante solicitação.

Conforme a CNBC confirmou em seu excelente artigo jornalístico sobre a regulação da IA, os governos temem a possibilidade de deepfakes, ou seja, formas de IA que geram eventos falsos, incluindo fotos e vídeos, sendo implementadas em eleições globais a cargos políticos importantes este ano.

Criação da Governança de Inteligência Artificial

Recentemente, foi criado o Gabinete de Inteligência Artificial da União Europeia, que desempenhará um papel fundamental na implementação da Lei da Inteligência Artificial, apoiando os órgãos de governança dos Estados-membros nas suas tarefas e aplicando as regras para modelos de IA de uso geral. Essas prerrogativas são suportadas pelos poderes conferidos pela Lei da Inteligência Artificial, incluindo a capacidade de realizar avaliações de modelos de IA de uso geral, solicitar informações e medidas aos fornecedores de modelos e aplicar sanções. O Gabinete também promoverá um ecossistema inovador de IA confiável, para colher os benefícios sociais e econômicos, garantindo uma abordagem europeia estratégica, coerente e eficaz em matéria de IA a nível internacional, tornando-se um ponto de referência mundial.

O Gabinete também terá o apoio de um painel científico de peritos independentes que apoiarão as atividades de fiscalização.

Foi igualmente criado um Conselho de Inteligência Artificial, com representantes dos Estados-membros para aconselhar e ajudar a Comissão Europeia e os Estados-membros na aplicação consistente e eficaz da Lei da Inteligência Artificial.

Por fim, foi estabelecido um fórum consultivo para as partes interessadas, incluindo indivíduos e pessoas jurídicas, fornecerem conhecimentos técnicos ao Conselho de Inteligência Artificial e à Comissão Europeia.

Penalidades por Violação da Lei da Inteligência Artificial

As multas por infrações à Lei da Inteligência Artificial serão fixadas em até 7% do volume de negócios anual global da empresa infratora no exercício anterior ou em um montante pré-determinado de EUR 35.000.000,00, o que for maior. As pequenas e médias empresas (PME) e as start-ups estarão sujeitas a multas administrativas proporcionais ou ao montante pré-determinado, mas, ao contrário, sempre o que for menor.

Aliás, o fornecimento de informações incorretas, incompletas ou enganosas aos organismos notificados ou às autoridades nacionais competentes em resposta a um pedido está sujeito a multas administrativas de até 7.500. 000,00 EUR ou, se o infrator for uma empresa, até 1 % do valor o seu volume de negócios anual total a nível mundial relativo ao exercício financeiro anterior, consoante o que for mais elevado.

Para a dosimetria da penalidade, os seguintes parâmetros devem ser considerados:

1. A natureza, a gravidade e a duração da infração e das suas consequências, tendo em conta a finalidade do sistema de IA, bem como, se for caso disso, o número de pessoas afetadas e o nível dos danos por elas sofridos.

2. Se já foram aplicadas multas administrativas por outras autoridades de fiscalização do mercado ao mesmo operador pela mesma infração.

3. Se já foram aplicadas multas administrativas por outras autoridades ao mesmo operador por infrações a outro direito da União Europeia ou da legislação nacional, quando essas infrações resultem da mesma atividade ou omissão que constitua uma infração relevante ao presente regulamento.

4. A dimensão, o volume de negócios anual e a quota de mercado do operador que comete a infração.

5. Qualquer outro fator agravante ou atenuante aplicável às circunstâncias do caso, tais como benefícios financeiros obtidos ou perdas evitadas, direta ou indiretamente, decorrentes da infração.

6. O grau de cooperação com as autoridades nacionais competentes, a fim de remediar a infração e atenuar os possíveis efeitos adversos da infração.

7. O grau de responsabilidade do operador, tendo em conta as medidas técnicas e organizacionais por ele implementadas.

8. A forma como as autoridades nacionais competentes tomaram conhecimento da infração, nomeadamente se, e em caso afirmativo, em que medida, o operador notificou a infração.

9. O caráter intencional ou negligente da infração.

10. Qualquer ação tomada pelo operador para mitigar os danos sofridos pelas pessoas afetadas.

No items found.