Pular para o conteúdo

Descubra os 4 níveis de risco da Inteligência Artificial

Banner Aleatório

A União Europeia deu um passo fundamental na regulação da Inteligência Artificial com a aprovação do AI Act, o primeiro quadro legal abrangente do mundo dedicado a esta tecnologia. O objetivo é simples: garantir que os sistemas de IA são seguros, transparentes e respeitam os direitos fundamentais. Conheça os 4 níveis de risco definidos para o uso da Inteligência Artificial.

Banner Aleatório

AI Act: conheça 4 níveis de risco da Inteligência Artificial

O regulamento classifica os sistemas de IA em quatro níveis de risco, aplicando regras mais ou menos exigentes consoante o impacto potencial da tecnologia na sociedade.

Risco Inaceitável: sistemas proibidos

No topo da hierarquia estão os sistemas de risco inaceitável, considerados uma ameaça direta aos direitos e liberdades dos cidadãos. Estes sistemas são totalmente proibidos na União Europeia.

Exemplos incluem:

  • Sistemas de pontuação social (social scoring) por parte de governos
  • IA que manipula comportamentos humanos de forma subliminar
  • Identificação biométrica em tempo real em espaços públicos (com raras exceções legais)

A UE entende que estas aplicações ultrapassam limites éticos e democráticos.

Alto Risco: fortemente regulados

Os sistemas de alto risco não são proibidos, mas estão sujeitos a regras rigorosas, dado o seu impacto significativo na vida das pessoas.

São exemplos de IA de alto risco:

  • Sistemas usados em recrutamento e seleção de pessoal
  • IA aplicada a avaliação de crédito
  • Tecnologias usadas em educação, saúde, justiça ou controlo de fronteiras

Estas soluções terão de cumprir requisitos como:

  • Avaliação e mitigação de riscos
  • Qualidade e segurança dos dados
  • Registos de atividade (logs)
  • Supervisão humana
  • Robustez e cibersegurança

Risco Limitado: obrigações de transparência

Aqui entram sistemas que apresentam riscos menores, mas que ainda exigem transparência para proteger o utilizador.

Exemplos comuns:

  • Chatbots e assistentes virtuais
  • Sistemas que geram conteúdos sintéticos (texto, imagem, áudio ou vídeo)

Nestes casos, o utilizador deve ser claramente informado de que está a interagir com uma IA ou que o conteúdo foi gerado artificialmente.

Risco Mínimo: uso livre

A maioria das aplicações de IA enquadra-se no nível de risco mínimo, não estando sujeita a obrigações legais adicionais.

Incluem-se aqui:

  • Sistemas de recomendação (música, filmes, produtos)
  • Filtros de spam
  • IA em videojogos
  • Ferramentas de edição de imagem ou texto

A UE incentiva a inovação nestas áreas, mantendo o mercado aberto e competitivo.

 

AI Act: conheça 4 níveis de risco da Inteligência Artificial

AI Act: Datas importantes

O AI Act entrou em vigor a 1 de agosto de 2024, mas a sua aplicação é faseada até 2027, com diferentes marcos para diferentes obrigações:

  • Desde 2 de fevereiro de 2025, já são aplicáveis:
    • As proibições de sistemas de IA de risco inaceitável
    • As obrigações de literacia em IA (Art.º 4.º)
  • A partir de 2 de agosto de 2025, entram em aplicação:
    • As regras de governação e supervisão do regulamento (Capítulo VII)
    • As obrigações específicas para modelos de IA de finalidade geral (GPAI) (Capítulo V)
    • As obrigações de confidencialidade (Art.º 78.º)
  • A 2 de agosto de 2026, o AI Act torna-se aplicável na sua generalidade.
  • Até 2 de agosto de 2027, aplica-se o prazo alargado de transição para sistemas de risco elevado incluídos em produtos regulados (ex: dispositivos médicos).

Com o AI Act, a União Europeia procura equilibrar inovação tecnológica e proteção dos cidadãos, criando um modelo que poderá servir de referência a nível global.

Para empresas, developers e profissionais de cibersegurança, este regulamento representa novos desafios, mas também oportunidades para desenvolver soluções de IA mais éticas, seguras e confiáveis.



Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *