Regulamento da Inteligência Artificial: Orientações da Comissão Europeia sobre Práticas Proibidas

Blog 16/4/2025

Regulamento da Inteligência Artificial: Orientações da Comissão Europeia sobre Práticas Proibidas

Ana Martins, Managing Director – Compliance, Governance & Sustainability da Timestamp, explica-nos as Orientações sobre as Práticas Proibidas de IA vindas da Comissão Europeia

O Regulamento da Inteligência Artificial (Regulamento (UE) 2024/1689, conhecido como "AI Act") entrou em vigor, de forma faseada, em agosto de 2024. 

A 2 de fevereiro de 2025, entraram em vigor as primeiras disposições gerais do Regulamento, que estabelecem normas rigorosas para o desenvolvimento, disponibilização e utilização de sistemas de inteligência artificial.

A 4 de fevereiro de 2025, a Comissão Europeia divulgou, as "Orientações sobre as Práticas Proibidas de IA". Embora não sejam juridicamente vinculativas, estas orientações fornecem diretrizes detalhadas e exemplos práticos para uniformizar a interpretação do artigo 5.º do Regulamento da Inteligência Artificial em toda a União Europeia.

Estas proibições aplicam-se a sistemas de IA que violam princípios essenciais, como a dignidade humana, a privacidade e a não discriminação.

1.    O QUE SÃO PRÁTICAS DE IA PROIBIDAS PELO REGULAMENTO DA INTELIGÊNCIA ARTIFICIAL?

Correspondem a práticas que representam risco para os direitos fundamentais e valores da EU, podendo causar severos danos físicos, psicológicos, financeiros ou económicos...

2.    QUAIS SÃO AS PRÁTICAS DE IA PROIBIDAS DENTRO DO AI ACT?

a)    Manipulação Cognitiva e Comportamental

A manipulação ocorre quando um sistema de IA influencia o pensamento ou as ações de uma pessoa de maneira oculta, sem que ela perceba que está a ser direcionada para uma escolha específica.

Exemplos de práticas proibidas:

  • Algoritmos que manipulam emoções para induzir compras compulsivas;
  • IA que explora vícios ou fragilidades psicológicas para gerar dependência;
  • Sistemas que influenciam votos ou opiniões políticas de forma oculta.

Exemplos de exceções admitidas:

  • As interfaces cérebro-máquina e tecnologias neuro assistentes são permitidas se forem projetadas de forma ética e respeitarem a privacidade.
  • A persuasão lícita também é permitida, desde que seja feita de forma transparente e respeite a liberdade de escolha do utilizador.
  • Personalização baseada em consentimento informado é permitida. Por exemplo, um sistema de ensino personalizado pode ajustar o conteúdo conforme o desempenho do aluno, desde que o utilizador tenha controlo sobre suas escolhas.

b)    Exploração de Vulnerabilidades de Grupos Específicos através da IA

Esta proibição abrange sistemas que exploram fragilidades de pessoas vulneráveis, como crianças, idosos, pessoas com deficiência ou indivíduos em situação de desvantagem social e económica. 

A proibição existe porque esses grupos podem ter mais dificuldade em reconhecer ou resistir a manipulações, tornando-os alvos fáceis para abuso e exploração por sistemas de IA.

Exemplos de práticas proibidas:

  • Brinquedos com IA que manipulam crianças para obter informações ou influenciar comportamentos;
  • Sistemas de crédito que exploram economicamente idosos ou pessoas de baixos rendimentos.

Exemplos de exceções admitidas:

  • Aplicações de IA para auxiliar a aprendizagem de crianças, como plataformas interativas e tutores virtuais, desde que não manipulem comportamentos ou criem dependência nociva;
  • Assistentes de Saúde e Robôs de Apoio para Idosos e Pessoas com Deficiência;
  • Sistemas de Apoio à Integração Social e Económica.

c)    Sistemas de Classificação Social (Social Scoring) 

Este ponto proíbe sistemas que avaliem ou classifiquem pessoas com base no seu comportamento social, características pessoais ou histórico, resultando em tratamento desigual ou discriminação.

A preocupação da União Europeia é que a IA não pode ser usada para categorizar cidadãos de forma injusta, restringindo os seus direitos ou oportunidades, com base numa pontuação arbitrária, como acontece em alguns regimes autoritários.

Exemplos de práticas proibidas:

  • Sistemas de IA que restringem liberdades civis com base no histórico pessoal (como o sistema de crédito social da China);
  • Sistemas que negam serviços essenciais (saúde, crédito, educação) com base em pontuações comportamentais;
  • Sistemas de “reputação social” que limitam oportunidades de emprego e habitação.

Exemplos de exceções admitidas:

  • Empresas podem usar IA para avaliar o risco de fraude financeira de clientes, desde que os dados sejam relevantes (por exemplo, comportamento transacional e metadados dentro do contexto do serviço);
  • Sistemas que analisam dados médicos e comportamentais (por exemplo, diagnóstico de esquizofrenia com base no comportamento do paciente) não são proibidos, desde que a avaliação seja relevante, necessária e não conduza a um tratamento injustificado.

d)    Vigilância Biométrica em Tempo Real em Locais Públicos

O uso de sistemas de reconhecimento facial e outras formas de vigilância biométrica em espaços públicos sem justificação legal específica.

Exemplos de práticas proibidas:

  • Reconhecimento facial para monitorização em massa sem consentimento;
  • Sistemas que rastreiam cidadãos em tempo real sem um motivo legal válido.

Exemplos de exceções admitidas:

  • Se for autorizado judicialmente para casos específicos de ameaça à segurança pública (ex.: prevenção de terrorismo);
  • Aplicações específicas de sistemas para localização de pessoas desaparecidas.

e)    Extração indiscriminada (scraping) de imagens faciais

A utilização de IA para a recolha e extração massiva de imagens faciais de fontes públicas, como a internet e câmaras de videovigilância, sem uma base legal específica, é proibida.

Exemplos de práticas proibidas:

  • A criação de bases de dados de reconhecimento facial através da extração automática de imagens da internet com recurso a IA sem o consentimento das pessoas envolvidas;
  • O uso de sistemas para recolha de imagens faciais a partir de videovigilância pública sem que seja legalmente habilitada, nomeadamente para monitorização generalizada da população.

Exemplos de exceções admitidas:

  • Se a recolha for realizada de forma direcionada e justificada, no âmbito de uma investigação criminal específica, com autorização judicial;
  • Aplicações específicas de sistemas para fins de segurança, desde que respeitem os direitos fundamentais e estejam de acordo com a legislação de proteção de dados.

f)    Reconhecimento de emoções em contextos sensíveis (trabalho e ensino)

O uso de sistemas de reconhecimento de emoções em ambientes de trabalho e instituições de ensino é proibido, pois representa uma violação da privacidade e pode levar à discriminação ou controlo excessivo. 

Exemplos de práticas proibidas:

  • Monitorização dos estados emocionais de funcionários no local de trabalho através de sistemas de IA para avaliar produtividade ou comportamento;
  • Uso de IA para analisar as expressões faciais ou tom de voz de estudantes em sala de aula com o objetivo de avaliar a atenção ou envolvimento, sem uma justificação válida.

Exemplos de exceções admitidas:

  • Se o uso for justificado por razões médicas, como por exemplo no apoio a pacientes com dificuldades de comunicação;
  • Se for necessário para garantir a segurança, por exemplo, para prevenir acidentes, como a deteção de fadiga extrema em motoristas ou trabalhadores em ambientes de alto risco.

g)    Categorização biométrica com base em dados sensíveis 

O AI Act proíbe sistemas de categorização biométrica que utilizam dados biométricos para inferir características sensíveis de indivíduos, como raça, opiniões políticas, filiação sindical, crenças religiosas, vida sexual ou orientação sexual.

Exemplos de práticas proibidas:

  • Um sistema de IA que afirma ser capaz de deduzir a raça de uma pessoa com base na sua voz;
  • Um sistema de IA que analisa tatuagens ou características faciais para inferir crenças religiosas;
  • Um sistema de IA que tenta categorizar a orientação sexual de um utilizador através de fotos partilhadas online.

Exemplos de exceções admitidas:

  • O uso de dados biométricos para diagnósticos médicos com recurso a sistemas de IA pode ser permitido, como em análises baseadas em imagens para detetar doenças de pele ou condições genéticas relacionadas à cor da pele ou dos olhos;
  • O uso de categorização biométrica para garantir representatividade demográfica em bases de dados pode ser permitido, desde que siga os regulamentos de proteção de dados.

h)     Identificação biométrica em tempo real para aplicação da lei

O AI Act proíbe, como regra geral, o uso de sistemas de identificação biométrica remota em tempo real (RBI) em espaços públicos para aplicação da lei. 

No entanto, há exceções específicas em que essa tecnologia pode ser utilizada, desde que autorizada pela legislação nacional e cumprindo todas as condições e salvaguardas do regulamento.

Exemplos de práticas proibidas:

  • A polícia instala câmaras de videovigilância equipadas com reconhecimento facial em tempo real em diversas partes da cidade, incluindo locais de culto, espaços frequentados por minorias e estabelecimentos comerciais;
  • Autoridades utilizam um sistema de reconhecimento facial em tempo real com recurso a IA para identificar participantes de uma manifestação política, com base em imagens captadas por câmaras instaladas na cidade;
  • Durante um jogo de futebol, um sistema de reconhecimento emocional analisa o comportamento dos espectadores para prever potenciais incidentes violentos. O sistema ativa, automaticamente, o RBI para identificar adeptos suspeitos de envolvimento em distúrbios no passado. 

Exemplos de exceções admitidas:

  • Sistemas de RBI usados para encontrar vítimas de crimes graves e pessoas desaparecidas, como por exemplo no caso de tráfico de seres humanos, exploração sexual de crianças e rapto, desde que haja uma suspeita fundamentada de que se encontram em perigo;
  • Sistemas de RBI usados para prevenir ameaças específicas e iminentes contra a segurança física das pessoas, que coloquem em risco a sua vida, incluindo ameaças de ataque terrorista, desde que devidamente justificado.

3.    PORQUE É QUE ESTAS PRÁTICAS SÃO PROIBIDAS PELO REGULAMENTO DE IA?

A Comissão Europeia proibiu esses sistemas, por considerar que violam direitos fundamentais, como:

  • Direito à privacidade e proteção de dados;
  • Liberdade de pensamento e livre autonomia de decisão;
  • Não discriminação e igualdade de tratamento;
  • Segurança e proteção contra abuso tecnológico.

4.    QUAIS AS SANÇÕES PELO NÃO CUMPRIMENTO DAS REGRAS DO REGULAMENTO DA INTELIGÊNCIA ARTIFICIAL RELATIVAS A PRÁTICAS PROIBIDAS?

As sanções pelo incumprimento das regras relativas a práticas de IA proibidas são as mais severas previstas no AI Act, refletindo a gravidade destas infrações. 

Os fornecedores e utilizadores que desenvolvam ou utilizem sistemas de IA proibidos podem ser multados em até 35 milhões de euros ou 7% do volume de negócios anual mundial da empresa infratora, consoante o valor que for mais elevado.

Estas penalizações rigorosas justificam-se pelo elevado risco que estas práticas representam para os direitos fundamentais, a segurança e os valores da União Europeia. O regulamento visa prevenir danos significativos resultantes do uso abusivo da IA. 

A imposição de sanções elevadas tem como objetivo dissuadir empresas e entidades públicas de recorrerem a estas práticas ilegais e garantir um nível uniforme de proteção e conformidade em toda a União Europeia.

5.    COMO AGIR E GARANTIR CONFORMIDADE COM O REGULAMENTO DE IA? 

As empresas que desenvolvem, importam, distribuem, implementam ou utilizam Inteligência Artificial na União Europeia devem garantir que os seus sistemas não violam as práticas proibidas estabelecidas pelo Regulamento de IA (UE) 2024/1689. 

Qualquer sistema que se enquadre nos cenários descritos não pode ser comercializado ou utilizado na UE, e o não cumprimento dessas regras pode resultar em multas severas e sanções legais. 

Diante desse cenário, é essencial que as empresas realizem uma avaliação detalhada dos seus sistemas de IA, garantindo total conformidade com a legislação.

As empresas devem mapear, analisar e classificar os seus sistemas em matéria de Risco, de forma a identificar se se enquadram nas práticas proibidas e adotar as medidas necessárias em conformidade.

6.    COMO PODE A TIMESTAMP AJUDAR?

Dispomos de uma metodologia sistematizada para mapear, analisar e classificar os sistemas de IA da sua organização, identificando pontos críticos relevantes e riscos associados em alinhamento com o quadro regulamentar.

A Timestamp apresenta uma abordagem 360ª à Inteligência Artificial, que inclui as vertentes de Conformidade Regulatória; Consultadoria tecnológica e funcional; e soluções Tecnológicas, suportando a sua empresa ao longo de todo o ciclo de vida dos projetos de IA, incluindo diagnóstico, desenho, desenvolvimento, implementação dos sistemas, até à sua monitorização. 

Adequamos a Inteligência Artificial à sua estratégia de negócio, requisitos e necessidades, de forma ética e responsável, garantindo o uso de melhores práticas do setor, melhores tecnologias e alinhamento regulatório.

Saiba tudo sobre como podemos ajudar a sua empresa: Privacy & Digital Security | Timestamp & Data & AI | Timestamp
 
Por: Ana Martins | Managing Director – Compliance, Governance & Sustainability

Partilhe este post

Copy link