Especialistas ouvidos pela comissão de juristas que elabora um anteprojeto para regulação da inteligência artificial (IA) no Brasil recomendaram aos integrantes do colegiado que o tema responsabilidade civil não seja incluído na futura norma. O assunto foi debatido num painel, na manhã desta sexta-feira (13), no Senado.
Os profissionais ouvidos chamaram a atenção para a infinidade de aplicações, as gradações de risco e o grau de autonomia da tecnologia utilizada, que trazem diferentes consequências na hora de responsabilização de eventuais danos causados. O professor Anderson Schreiber, da Universidade do Estado do Rio de Janeiro (UERJ), e a advogada Gisela Sampaio foram enfáticos na dificuldade a ser enfrentada pelos legisladores, caso queiram incluir a temática numa futura lei:
— O PL [projeto de lei] não deve de jeito nenhum tratar de responsabilidade civil. Para isso, teria que passar por especificar as várias hipóteses e situações, o que acabaria por desnaturá-lo. O projeto deve ter caráter mais geral, neste primeiro momento da IA no Brasil, e seria impossível fazer esse tipo de especificação. A responsabilidade civil acabaria engolindo o PL — opinou Anderson Schreiber.
Os dois especialistas — assim como os professores Caitlin Mulholland, da Pontifícia Universidade Católica do Rio de Janeiro (PUC/RJ), e Nelson Rosenvald, do Instituto Brasileiro de Estudos de Responsabilidade Civil — defenderam também o estabelecimento de um seguro obrigatório para os usos de inteligência artificial que implique alto grau de risco.
Regulação
A reunião desta sexta-feira debateu também possíveis arranjos institucionais de fiscalização, regulação responsiva e a criação de um órgão regulador.
O professor Fernando Filgueiras, da Universidade Federal de Goiás (UFG), explicou que os Estados Unidos (que já discutem uma lei de responsabilidade algorítmica e uma carta de direito para questões do mundo digital) atribuem a regulação a agências reguladoras setoriais já existentes, num modelo mais descentralizado, diferentemente da Europa, que está indo para um caminho mais centralizador.
— Um modelo policêntrico é mais adequado. Regular a inteligência artificial não é regular a tecnologia em si, mas os modelos de negócios que usam a tecnologia para atingir um determinado fim. Regular a inteligência artificial na área de saúde é muito diferente da regular a IA usada na regulação de mercado e combate a conluios feita, por exemplo, pelo Cade [Conselho Administrativo de Defesa Econômica] — explicou.
Códigos éticos
Os debates continuam na parte da tarde, a partir das 14h, quando os convidados vão discutir questões relativas a códigos éticos, melhores práticas e avaliações de impacto. Foram convidados representantes do Ministério da Economia, do Instituto Brasileiro de Estudos de Concorrência, Consumo e Comércio internacional (Ibrac), de universidades e da iniciativa privada.
Com prazo para funcionar até 9 de agosto, a comissão foi formada para subsidiar a elaboração de uma minuta de substitutivo para instruir a apreciação de projetos de lei, em tramitação no Senado, que regulam o desenvolvimento e a aplicação da inteligência artificial no Brasil (PLs 5.051/2019, 21/2020 e 872/2021).