Nacional

Segundo o IDEC, mudanças no PL da IA atendem interesses de empresas e esquecem a população

Combination of human and artificial intelligence. In the new digital age, people will also change and become digital. There will even be an artificial human generation.
O Instituto de Defesa de Consumidores (Idec) manifesta profunda preocupação com os retrocessos incorporados ao novo texto do Projeto de Lei 2.338/2023, divulgado hoje (3), que visa regular o uso de inteligência artificial no Brasil. Cada nova versão do texto enfraquece os mecanismos de proteção aos cidadãos e amplia o alinhamento com os interesses das grandes empresas de tecnologia, em detrimento dos direitos da população e da soberania nacional.
CONTEÚDO RELACIONADO – Quais os impactos da IA na jornada do cliente
Riscos ampliados com a nova redação

A atual proposta reduz drasticamente as salvaguardas para mitigar os impactos negativos de sistemas de inteligência artificial. Entre os principais pontos de alerta, destacamos:

Facilitação de golpes em redes sociais

A exclusão da classificação de sistemas de distribuição de conteúdo em larga escala como de alto risco favorece a proliferação de golpes, fraudes e desinformação. Isso representa um retrocesso em relação à proteção dos consumidores e à integridade do ambiente digital.

Fragilização do combate à exploração sexual infantil

A nova versão do texto apresenta lacunas que dificultam a responsabilização de sistemas de IA usados para produzir e disseminar conteúdo relacionado à exploração sexual infantil. A mudança pode dificultar a responsabilização de empresas ou desenvolvedores que contribuam indiretamente para a criação ou difusão desse conteúdo, caso o PL seja aprovado.

Avaliação de risco como mera “boa prática”

O texto mantém a substituição da obrigatoriedade de uma avaliação preliminar de risco por uma mera recomendação de boas práticas, o que esvazia a capacidade de supervisão e controle de danos antes que eles ocorram.

Ausência de regulação da pontuação de crédito 

A permanência da omissão em relação à pontuação de crédito como atividade de alto risco ignora os impactos negativos que sistemas automatizados podem ter sobre a vida financeira dos consumidores, especialmente dos mais vulneráveis e superendividados.

Apoio das Big Techs e a falta de compromisso do Legislativo

É evidente que, a cada nova versão do projeto, mais direitos são retirados e mais cresce o apoio das grandes empresas de tecnologia ao texto. Isso reflete a força do lobby dessas corporações, que têm conseguido moldar o PL para favorecer seus interesses comerciais.

Enquanto isso, o Senado Federal demonstra uma preocupante complacência com o setor industrial ao tempo em que ignora os apelos da sociedade que busca proteger quem mais necessita. Essa postura compromete a soberania nacional e entrega o futuro regulatório da inteligência artificial no Brasil às mãos do setor privado.

O que está em jogo?

O PL 2.338/2023, tal como está, falha em estabelecer uma estrutura regulatória robusta e equilibrada, que proteja os direitos dos cidadãos e promova o desenvolvimento tecnológico responsável. A regulação da inteligência artificial deve priorizar a segurança, a privacidade e a dignidade da população, e não servir como uma carta branca para o lucro irrestrito das big techs.

O Idec apela aos parlamentares para que revejam urgentemente o texto do projeto, priorizando o interesse público acima de pressões externas. Sem isso, o Brasil corre o risco de ser transformado em um laboratório para experimentos tecnológicos desregulados, com impactos devastadores para os direitos fundamentais e a soberania do país.

Participe das comunidades IPNews no InstagramFacebook, LinkedIn X.

Newsletter

Inscreva-se para receber nossa newsletter semanal
com as principais notícias em primeira mão.


    Deixe um comentário

    O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *