Tecnologia Tecnologia
Brasil discute regulação da IA em meio a mercado de trilhões
País tem o desafio de assegurar responsabilidade no uso da inteligência artificial (IA) sem comprometer o desenvolvimento tecnológico, diz Suelen P...
29/01/2026 16h31
Por: Redação Fonte: Agência Dino

O mercado global de inteligência artificial (IA) deve atingir, em 2026, um tamanho de US$ 539 bilhões (R$ 2,8 trilhões, na cotação atual), segundo a consultoria Grand View Research. A estimativa é que o segmento supere US$ 3,5 trilhões (R$ 18,8 trilhões) em 2033. Em meio ao crescimento e à popularização da IA — principalmente de chatbtos e assistentes virtuais —, há também o debate sobre a regulamentação dessa tecnologia, campo no qual Suelen Pandini Odorizzi atua há anos como formuladora de modelos jurídicos voltados à mitigação de riscos algorítmicos e à segurança institucional.

No Brasil, o Projeto de Lei (PL) 2.338/23 foi aprovado no Senado em dezembro de 2024 e, desde então, aguarda discussão na Câmara dos Deputados. O texto traz um conjunto de regras para o desenvolvimento e o uso de sistemas de IA, estrutura normativa que dialoga com parâmetros regulatórios internacionais acompanhados de perto pela especialista em sua atuação transnacional.

A proposta estabelece classificações de risco para a tecnologia, considerando o impacto na vida e nos direitos da população. Aqueles apontados como de alto risco (veículos autônomos e IAs de diagnóstico médico, por exemplo) têm uma regulamentação distinta e mais rigorosa, sendo que o desenvolvimento de aplicações classificadas como de "risco excessivo" foram proibidas no texto. Um exemplo são os sistemas de armas autônomas (SAA), capazes de atacar alvos sem intervenção humana.

Continua após a publicidade

"O PL 2338/2023 adota uma abordagem baseada em risco, similar à Lei de IA da União Europeia (EU AI Act). A classificação é crucial para direcionar as obrigações regulatórias. O principal desafio reside em refinar a definição de ‘alto risco’ para evitar a insegurança jurídica e garantir que as obrigações impostas sejam tecnologicamente viáveis", avalia Odorizzi, que lidera projetos de governança tecnológica e compliance algorítmico envolvendo múltiplas jurisdições e setores sensíveis.

Ela afirma que, entre os principais pontos positivos da iniciativa regulatória brasileira, estão a busca por segurança jurídica e a construção de um marco legal claro para investidores e desenvolvedores. Em sua avaliação, esse tipo de previsibilidade normativa é essencial para que países consigam atrair inovação sem abrir mão do controle institucional, especialmente em tecnologias de alto impacto social.

A advogada destaca ainda o foco em princípios como não discriminação, a transparência e a explicabilidade dos sistemas de IA. "Isso é essencial para proteger os direitos fundamentais e evitar o aprofundamento de desigualdades sociais", pontua Odorizzi, que atua na avaliação jurídica de sistemas automatizados utilizados em contextos decisórios críticos. "Ao alinhar-se com modelos regulatórios globais, o Brasil pode se posicionar como um ator relevante no debate internacional sobre a governança da IA", acrescenta a profissional.

Continua após a publicidade

Além do PL 2338/2023, que ainda precisa ser aprovado na Câmara e sancionado pelo Executivo para virar lei, o país também conta com o Plano Brasileiro de Inteligência Artificial (PBIA). Lançado pelo governo federal em 2024, ele tem o objetivo de transformar o Brasil em referência no uso de IA, principalmente no setor público, e prevê investimentos de R$ 23 bilhões em quatro anos. Entre as medidas citadas no PBIA, estão o desenvolvimento de um supercomputador de alta performance — iniciativa que dialoga com a experiência de Odorizzi na estruturação jurídica de infraestruturas tecnológicas soberanas e ambientes críticos de dados.

Odorizzi explica que existe um receio de que normas muito restritivas possam frear a inovação. O desafio, tanto no projeto de regulamentação como no PBIA, é chegar a um caminho que assegure responsabilidade no uso da IA sem comprometer o desenvolvimento tecnológico, equilíbrio que a especialista defende a partir de sua atuação prática em projetos de inovação regulada.

"A regulação deve focar nos danos e riscos que a IA pode causar (o ‘o quê’), e não em como a tecnologia funciona. É importante criar incentivos (benefícios fiscais e subsídios) para empresas que desenvolvam IA em conformidade com os princípios éticos e de segurança, transformando a responsabilidade em um diferencial competitivo", defende.

Em relação aos próximos anos, ela acredita que essas empresas que investirem em IA ética e segura ganharão a confiança do consumidor. "A regulação criará um novo nicho de mercado para serviços de auditoria algorítmica e consultoria em conformidade regulatória de IA. Já a Lei Geral de Proteção de Dados Pessoais (LGPD) tende a ser complementada e fortalecida porque o processo exigirá um nível de governança de dados ainda mais rigoroso", afirma a advogada, que atua na intersecção entre direito, tecnologia e políticas públicas de alto impacto.

Odorizzi menciona a importância da Agência Nacional de Proteção de Dados (ANPD), ente responsável por zelar pela proteção de dados pessoais de acordo com a legislação.

"Ela terá um papel central, atuando na intersecção entre a proteção de dados e a ética algorítmica. O resultado será um mercado digital mais maduro, transparente e responsável", declara.