O parlamento da União Europeia (EU) aprovou, em março deste ano, uma nova legislação sobre inteligência artificial, conhecida como AI Act, em uma forma de regulamentar o desenvolvimento, uso e comercialização da tecnologia entre os países que fazem parte do bloco econômico.
A medida promoveu um debate sobre os impactos da legislação na evolução da IA, já que traça multas pesadas para quem descumprir as regras impostas. Os valores podem chegar a 35 milhões de euros ou 7% da receita global da empresa, o que muitos dizem poder impactar o negócio de startups, por exemplo.
As medidas, no entanto, são uma forma de garantir a segurança e os direitos dos cidadãos da UE, como lembra Silvio Eduardo de Andrade (foto acima), diretor estrategista digital da BRQ Digital Solutions. “Embora o cumprimento das regulamentações possa exigir recursos adicionais e possivelmente limitar certas abordagens de desenvolvimento de IA, também pode incentivar a criação de tecnologias mais éticas e seguras.”
Especialista em Inteligência Artificial e entusiasta de tecnologias disruptivas, ele explica como funciona as regras estipuladas pelo AI Act e o impacto que pode trazer ao mercado. Confira a entrevista a seguir.
Portal IPNews: Quais são as principais proibições e regulamentações impostas pela AI Act em relação ao uso de inteligência artificial?
Silvio Eduardo de Andrade: O intuito do regulamento europeu sobre inteligência artificial (IA), o AI Act, é essencialmente criar uma normatização consistente para o desenvolvimento, comercialização, serviço e utilização de sistemas de IA na União Europeia. No entanto, há uma considerável discussão em torno dessa iniciativa regulatória da UE, especialmente quando a tecnologia continua em seus estágios iniciais de desenvolvimento e adoção pela sociedade. Nesse contexto, existe uma certa apreensão de que o legislador tenha avançado rápido demais, potencialmente criando um ambiente regulatório que não favoreça a inovação.
Independentemente disso, a regulamentação baseia-se em uma abordagem de risco, distinguindo entre práticas de IA aceitáveis e aquelas consideradas inaceitáveis. Algumas das práticas proibidas incluem:
- Sistemas de pontuação social: sistemas de IA não podem ser utilizados para avaliar ou classificar pessoas com base em seu comportamento social em diferentes contextos, com consequências negativas resultantes dessa classificação.
- Exploração de vulnerabilidades: são proibidos sistemas de IA que explorem vulnerabilidades de grupos específicos de pessoas, especialmente com base em idade ou condição física, ou mental, com o intuito de causar danos físicos ou psicológicos.
- Sistemas de reconhecimento biométrico em tempo real em espaços públicos por autoridades policiais: salvo algumas exceções específicas, são vetados sistemas de IA para identificação biométrica em tempo real de pessoas em espaços públicos por autoridades de aplicação da lei.
- Técnicas de manipulação subliminar: são proibidos sistemas de IA que apliquem ou utilizem técnicas de manipulação subliminar para influenciar as pessoas de maneira a causar danos ou para explorar vulnerabilidades de indivíduos específicos, com o propósito de causar danos psicológicos ou físicos.
Como as multas previstas pela AI Act, que podem chegar a € 35 milhões ou 7% da receita global da empresa, impactarão as empresas de tecnologia que não cumprirem as regulamentações? Empresas/startups poderão quebrar? Poderá diminuir a inovação com a tecnologia?
Toda regulação onde existem multas e sanções administrativas tem como objetivo estimular a conformidade e o empenho em adotar as melhores práticas e não prejudicar financeiramente um empreendimento. A multa pode variar entre 2% e 6% do faturamento global da empresa a depender de diversos critérios e um deles é a gravidade da infração cometida, a duração e o impacto causado na sociedade.
Nesse sentido, ele considera a capacidade da empresa de pagar conjugado com o tamanho e o período da desconformidade. O que empresas e startups devem saber são as regras e o seu grau de risco, estabelecer um plano de conformidade e regras internas para evitar o descumprimento.
As multas representam um forte incentivo para as empresas de tecnologia cumprirem as regulamentações estabelecidas. O impacto dessas multas pode variar dependendo do tamanho e da capacidade financeira da empresa em questão. Para empresas menores e startups, essas multas significativas podem representar um grande desafio e, em casos extremos, podem levar à falência.
Em termos de inovação, é importante considerar que a AI Act foi projetada para equilibrar a necessidade de regulamentação com o estímulo à inovação responsável. Embora o cumprimento das regulamentações possa exigir recursos adicionais e possivelmente limitar certas abordagens de desenvolvimento de IA, também pode incentivar a criação de tecnologias mais éticas e seguras.
Quais são os requisitos específicos para sistemas de IA de alto risco, conforme definido pela AI Act, e como as empresas de tecnologia estão se preparando para cumprir essas exigências?
As empresas de tecnologia estão adotando uma abordagem proativa para cumprir os requisitos da AI Act em relação aos sistemas de IA de alto risco, a fim de garantir a conformidade e promover o desenvolvimento responsável de tecnologias de inteligência artificial.
Boa parte dos requisitos são obrigações que empresas com esse tipo de sistema geralmente já adotam para garantir a governança e o controle sobre suas operações e envolve, por exemplo, documentação detalhada, rigorosidade em testes e supervisão contínua.
Entendo que as empresas de tecnologia estão em busca de garantir e governar essas obrigações de forma mais explícita, reforçando seus processos: conduzindo inspeções internas para avaliar e reduzir riscos nos sistemas de IA; estabelecendo políticas e procedimentos para garantir a transparência e aplicabilidade dos sistemas; investindo em capacitação e conscientização dos funcionários sobre regulamentos e práticas recomendadas; colaborando com especialistas em ética e conformidade para assegurar a conformidade dos sistemas com os requisitos; e adotando ferramentas de conformidade e governança de IA para supervisionar e administrar o uso dos sistemas de forma responsável.
Entendo que as empresas de tecnologia estão se preparando para atender a essas demandas de diversas formas, como: conduzindo inspeções internas para avaliar e reduzir riscos nos sistemas de IA; estabelecendo políticas e procedimentos para garantir a transparência e aplicabilidade dos sistemas; investindo em capacitação e conscientização dos funcionários sobre regulamentos e práticas recomendadas; colaborando com especialistas em ética e conformidade para assegurar a conformidade dos sistemas com os requisitos; e adotando ferramentas de conformidade e governança de IA para supervisionar e administrar o uso dos sistemas de forma responsável.
Qual será o papel dos órgãos reguladores, incluindo a futura agência de IA da União Europeia, no processo de conformidade das empresas de tecnologia com as regulamentações da AI Act?
Os órgãos reguladores, incluindo a futura agência de IA da União Europeia, terão um papel central no processo de conformidade das empresas de tecnologia com as regulamentações da AI Act. Eles serão responsáveis por interpretar as disposições do AI Act, fornecer orientações claras às empresas, monitorar o cumprimento das regulamentações, conduzir investigações em caso de violações e aplicar sanções quando necessário.
Esses órgãos também avaliarão o risco associado às práticas de IA das empresas, emitirão certificações de conformidade e colaborarão com outras autoridades para garantir uma aplicação consistente e coordenada das normas de IA na UE. Em suma, eles desempenharão um papel fundamental na garantia de que a IA seja desenvolvida e utilizada de forma ética, segura e responsável dentro da União Europeia.
A atuação dos órgãos reguladores, incluindo a futura agência de IA da União Europeia, será multidimensional e abrangerá diversas áreas para assegurar a conformidade das empresas de tecnologia com as regulamentações da AI Act. Isso inclui não apenas a interpretação e orientação sobre as disposições do AI Act, mas também o monitoramento constante do cumprimento das normas, a condução de avaliações de risco relacionadas às práticas de IA das empresas e a emissão de certificações de conformidade.
Além disso, os reguladores trabalharão em colaboração com outras autoridades nacionais e internacionais para garantir uma aplicação consistente das regulamentações de IA. Essa abordagem integrada visa promover o desenvolvimento e uso ético, seguro e responsável da IA dentro da UE, fortalecendo a confiança dos consumidores e garantindo o alinhamento das empresas com os padrões regulatórios estabelecidos.
Participe das comunidades IPNews no Instagram, Facebook, LinkedIn e Twitter.