CONTEÚDO RELACIONADO – Quais os impactos da IA na jornada do cliente
A atual proposta reduz drasticamente as salvaguardas para mitigar os impactos negativos de sistemas de inteligência artificial. Entre os principais pontos de alerta, destacamos:
Facilitação de golpes em redes sociais
A exclusão da classificação de sistemas de distribuição de conteúdo em larga escala como de alto risco favorece a proliferação de golpes, fraudes e desinformação. Isso representa um retrocesso em relação à proteção dos consumidores e à integridade do ambiente digital.
Fragilização do combate à exploração sexual infantil
A nova versão do texto apresenta lacunas que dificultam a responsabilização de sistemas de IA usados para produzir e disseminar conteúdo relacionado à exploração sexual infantil. A mudança pode dificultar a responsabilização de empresas ou desenvolvedores que contribuam indiretamente para a criação ou difusão desse conteúdo, caso o PL seja aprovado.
Avaliação de risco como mera “boa prática”
O texto mantém a substituição da obrigatoriedade de uma avaliação preliminar de risco por uma mera recomendação de boas práticas, o que esvazia a capacidade de supervisão e controle de danos antes que eles ocorram.
Ausência de regulação da pontuação de crédito
A permanência da omissão em relação à pontuação de crédito como atividade de alto risco ignora os impactos negativos que sistemas automatizados podem ter sobre a vida financeira dos consumidores, especialmente dos mais vulneráveis e superendividados.
Apoio das Big Techs e a falta de compromisso do Legislativo
É evidente que, a cada nova versão do projeto, mais direitos são retirados e mais cresce o apoio das grandes empresas de tecnologia ao texto. Isso reflete a força do lobby dessas corporações, que têm conseguido moldar o PL para favorecer seus interesses comerciais.
Enquanto isso, o Senado Federal demonstra uma preocupante complacência com o setor industrial ao tempo em que ignora os apelos da sociedade que busca proteger quem mais necessita. Essa postura compromete a soberania nacional e entrega o futuro regulatório da inteligência artificial no Brasil às mãos do setor privado.
O que está em jogo?
O PL 2.338/2023, tal como está, falha em estabelecer uma estrutura regulatória robusta e equilibrada, que proteja os direitos dos cidadãos e promova o desenvolvimento tecnológico responsável. A regulação da inteligência artificial deve priorizar a segurança, a privacidade e a dignidade da população, e não servir como uma carta branca para o lucro irrestrito das big techs.
O Idec apela aos parlamentares para que revejam urgentemente o texto do projeto, priorizando o interesse público acima de pressões externas. Sem isso, o Brasil corre o risco de ser transformado em um laboratório para experimentos tecnológicos desregulados, com impactos devastadores para os direitos fundamentais e a soberania do país.
Participe das comunidades IPNews no Instagram, Facebook, LinkedIn e X.