Posted inArtigos / Produtividade

Lei da UE sobre IA: Primeira regulamentação de Inteligência Artificial

Esta ilustração de inteligência artificial foi gerada por IA

A Inteligência Artificial (IA) permanece como um assunto de grande relevância, suscitando uma ampla gama de opiniões. Enquanto alguns são favoráveis, outros expressam preocupações, mas em geral existe um consenso quase unânime sobre a necessidade de regulamentar a IA. Nesse sentido, foi promulgada a primeira legislação relacionada à Inteligência Artificial pela União Europeia.

A utilização da inteligência artificial na UE será regulada pela Lei da IA, a primeira lei abrangente do mundo sobre a IA. As novas regras estabelecem obrigações para os fornecedores e utilizadores em função do nível de risco da IA. Embora muitos sistemas de IA representem um risco mínimo, é necessário avaliá-los.

Inteligencia Artificial

Inteligência Artificial: Risco inaceitável, Alto Risco, IA generativa e Risco limitado

A utilização da inteligência artificial na UE será regulada pela Lei da IA, a primeira lei abrangente do mundo sobre a IA. As novas regras estabelecem obrigações para os fornecedores e utilizadores em função do nível de risco da IA. Embora muitos sistemas de IA representem um risco mínimo, é necessário avaliá-los.

Risco inaceitável

  • Os sistemas de IA de risco inaceitável são sistemas considerados uma ameaça para as pessoas e serão proibidos. Estes sistemas incluem:
    • manipulação cognitivo-comportamental de pessoas ou grupos vulneráveis específicos: por exemplo, brinquedos ativados por voz que incentivam comportamentos perigosos nas crianças
    • pontuação social: classificação de pessoas com base no comportamento, estatuto socioeconómico, características pessoais
    • sistemas de identificação biométrica em tempo real e à distância, como o reconhecimento facial

Podem ser permitidas algumas exceções: Por exemplo, os sistemas de identificação biométrica à distância “pós”, em que a identificação ocorre após um atraso significativo, só serão permitidos para a repressão de crimes graves e após aprovação do tribunal.

Alto risco

Os sistemas de IA que afetam negativamente a segurança ou os direitos fundamentais serão considerados de alto risco e serão divididos em duas categorias.

  1. Sistemas de IA que são utilizados em produtos abrangidos pela legislação da UE em matéria de segurança dos produtos. Isto inclui brinquedos, aviação, automóveis, dispositivos médicos e elevadores.
  2. Sistemas de IA que se enquadram em oito áreas específicas que terão de ser registados numa base de dados da UE:
    • identificação biométrica e categorização de pessoas singulares
    • gestão e funcionamento de infraestruturas críticas
    • educação e formação profissional
    • emprego, gestão dos trabalhadores e acesso ao trabalho por conta própria
    • acesso e usufruto de serviços privados essenciais e de serviços e benefícios públicos
    • aplicação da lei
    • gestão da migração, do asilo e do controlo das fronteiras
    • assistência na interpretação jurídica e na aplicação da lei.

Todos os sistemas de IA de alto risco serão avaliados antes de serem colocados no mercado e durante todo o seu ciclo de vida.

IA generativa

A IA generativa, tal como o ChatGPT, teria de cumprir os requisitos de transparência:

  • divulgar que o conteúdo foi gerado pela IA
  • conceber o modelo para evitar que este gere conteúdos ilegais
  • publicar resumos dos dados protegidos por direitos de autor utilizados para a formação

Risco limitado

Os sistemas de IA de risco limitado devem cumprir requisitos mínimos de transparência que permitam aos utilizadores tomar decisões informadas. Depois de interagir com as aplicações, o utilizador pode decidir se quer continuar a utilizá-las. Os utilizadores devem ser alertados para o facto de estarem a interagir com a IA. Isto inclui sistemas de IA que geram ou manipulam conteúdos de imagem, áudio ou vídeo (por exemplo, deepfakes).

Jak’s Digitals

Fonte: PARLAMENTO EUROPEU