Pesquisar
Close this search box.

Regulação da IA precisa ser ajustada para não frear a inovação nem burocratizar o ambiente de negócios.

Regulação da IA precisa ser ajustada para não frear a inovação nem burocratizar o ambiente de negócios.

Compartilhe

Regulação da IA precisa ser ajustada para não frear a inovação nem burocratizar o ambiente de negócios e o

equilíbrio entre inovação, desenvolvimento e proteção dos direitos fundamentais devem nortear a futura legislação

A Federação do Comércio de Bens, Serviços e Turismo do Esta – do de São Paulo (FecomercioSP) vem, desde o início do debate do Projeto de Lei (PL) 2.338/2023 – que propõe estabelecer o Marco Regulatório da Inteligência Artificial (IA) no Brasil, contribuindo para a elaboração de um texto equilibrado.

Na visão da entidade, que mantém um think tank do tema com especialistas, essa regulação é desafiadora, pois, de um lado, há a busca da harmonia entre a inovação e o desenvolvimento econômico — e, do outro, a necessária proteção dos direitos fundamentais da sociedade.

A fim de colaborar com o relatório, apresentado em junho pela Comissão Temporária do Senado (CTIA), que trata do Marco Legal da IA, a Federação apresentou novas sugestões solicitando ajustes na redação. O objetivo é aumentar a segurança jurídica, bem como incentivar o uso da ferramenta.

A FecomercioSP entende que o debate sobre a regulamentação da tecnologia passa por refletir até que ponto esse processo é fundamental. Ainda que a busca pelo uso seguro, ético e lícito da ferramenta seja imprescindível, é importante também que a legislação seja construída sem burocratizar ainda mais a trans – formação digital do ambiente de negócios.

Sugestões de aprimoramento

Na visão da FecomercioSP, o relatório redigido pela CTIA traz avanços consideráveis, porém alguns aspectos precisam ser reavaliados. Dentre os ajustes sugeridos ao texto, a entidade defende as medidas a seguir.

• Direitos aplicáveis a todos os sistemas de IA:

Apesar das melhorias reconhecidas, o texto apresenta um capítulo dedicado à introdução de direitos aplicáveis, em regra, a todos os sistemas de IA.

Ocorre que, como já pontuado em outras oportunidades pela FecomercioSP, regular a IA é regular tecnologia, e não um direito, merecendo, por conseguinte, uma ótica distinta daquela prevista, por exemplo, na Lei Geral de Proteção de Dados Pessoais (LGPD).

Como a IA é uma tecnologia geral com uma ampla gama de aplicações, aplicar direitos a todos os sistemas pode pressionar os agentes da IA a adotar medidas de governança que, na prática, não preservam os direitos das pessoas afetadas. Além disso, o ordenamento jurídico nacional já prevê direitos aplicáveis a sistemas do gênero em outros normativos, nomeadamente na LGPD.

• Acumulação de sanções:

O relatório contém um rol de penalidades muito próximo ao previsto na LGPD. A introdução de novas sanções pode gerar risco de as empresas serem duplamente penalizadas. Para evitar essa situação, que desestimula investimentos em inovação e prejudica os desenvolvimentos tecnológico e econômico, a sugestão é uma nova redação a fim de eliminar essa cumulatividade.

• Estabelecimento de critérios para classificação de sistemas de alto risco:

A FecomercioSP discorda da opção regulatória de definir a classificação de sistemas de IA de alto risco com um rol exemplificativo. As autoridades pertinentes devem considerar apenas critérios, sem incluir exemplos de sistemas de alto risco, conforme proposto no texto preliminar da CTIA.

• Carga de governança excessiva:

Dado o rápido avanço da IA, das tecnologias, das técnicas e dos procedimentos de mitigação de riscos, é crucial que o futuro Marco Legal da IA seja flexível. Isso permitirá que as autoridades reguladoras busquem mecanismos adequados, precisos e eficientes, considerando o contexto em que serão aplicados.

• Comunicação de incidentes às autoridades:

“Nos mercados regulados, a autoridade setorial específica deve ser comunicada sobre os graves incidentes de segurança. Nos mercados não regulados, a ‘autoridade competente’ receberá essa atribuição.”

Ponderações

A CTIA destaca pontos positivos em seu texto em comparação com seus antecessores, alinhando-se à visão da FecomercioSP para a regulação da IA no Brasil.

• Maior relevância para a autorregulação:

O texto proposto chancela a elaboração de códigos de conduta e mantém a possibilidade de os agentes de IA criarem autorregulações de governança, com normas reconhecidas pela autoridade competente. Uma maior flexibilização conferida à autorregulação estimula a disseminação dessas entidades e a adoção das boas práticas.

Incentivos concretos à inovação: o texto manteve o enfoque em medidas concretas que devem ser adotadas pelos entes federativos.

O estímulo à pesquisa para desenvolvimento de sistemas de IA voltados ao contexto socioeconômico brasileiro — bem como o financiamento de recursos físicos e tecnológicos da ferramenta para pequenas e médias empresas e centros de pesquisa se destaca como um exemplo de política pública essencial à promoção da inovação nos setores produtivos.

• Mais protagonismo das autoridades reguladoras setoriais:

O relatório também avança na valorização das atribuições de órgãos e entidades reguladoras setoriais (chamadas “autoridades setoriais”), prestigiando as especificidades do mercado regulado em diversos aspectos, bem como quanto às atribuições fiscalizatória e sancionatória dessas autoridades sobre seus agentes regulados.

• Melhor definição dos agentes dos sistemas de IA:

A proposta estabelece, detalhadamente, os diferentes papéis dos agentes, trazendo definições distintas para figuras como “desenvolvedor”, “distribuidor” e “aplicador”, além de delimitar as obrigações atribuídas a cada um. Algumas dessas alterações são positivas, mas outras ainda demandam ajustes.

Agora, apenas os “desenvolvedores” e “aplicadores” dos sistemas de IA de alto risco são cobrados pela avaliação de impacto algorítmico. Os “desenvolvedores” também precisam implementar as medidas de governança para esses sistemas e para IAs de propósito geral e generativa.

Na visão da Federação, isso pode desencorajar os investimentos no desenvolvimento de sistemas de IA locais. A sugestão da Entidade é que o relatório exclua as obrigatoriedades dessas adoções para o desenvolvimento de novas tecnologias, reservando-as apenas aos “aplicadores” a fim de não limiar as introduções no mercado.

Responsabilidade civil:

O texto endossa a aplicação dos outros sistemas de responsabilização civil já vigentes no ordenamento jurídico brasileiro, como o Código de Defesa do Consumidor (CDC), a Lei Geral de Proteção de Dados Pessoais (LGPD), o próprio Código Civil, entre outras.

Contudo, a redação proposta ainda estabelece que a definição em concreto do regime de responsabilidade civil considerará o nível de autonomia do sistema de IA, o seu grau de risco e a natureza dos agentes da ferramenta envolvidos.

Assim, o texto poderia ter elaborado uma exceção nas regras de responsabilidade civil para os ambientes de teste, como os “sandboxes regulatórios”. Isso significa que, nesses ambientes onde se experimentam novas ideias e produtos, as regras sobre quem é responsável por problemas poderiam ser diferentes das regras normais.

Fonte: Fecomercio SP

Siga FebelTech no Google Noticias.

Bem-vindo à seção de Tecnologia. Nós exploramos avanços, tendências e o impacto da tecnologia na sociedade. De inteligência artificial a cibernética, estamos aqui para enriquecer sua compreensão desse mundo em constante evolução. Junte-se a nós para entender como a tecnologia molda nosso presente e futuro.

Contato:

© 2023. Todos os Direitos Reservados
…Até aqui nos ajudou o Senhor. 1Samuel 7b

Este blog utiliza cookies para garantir uma melhor experiência. Se você continuar assumiremos que você está satisfeito com ele.