Há em curso uma onda regulatória sobre o tema – como o AI Act, da União Europeia – que atinge tanto quem desenvolve quanto quem usa ferramentas de IA. / Imagem: Mojahid Mottakin (Unsplash)
[04.07.2023]
Por Rhodrigo Deda, advogado de Novos Negócios, doutorando em Engenharia de Software e mestre em Tecnologia e Sociedade.
Aplicativos de inteligência artificial (IA) de empresas como Microsoft e Adobe estão na iminência de sair das salas de apresentações corporativas e fazer parte do cotidiano profissional. Pelo ritmo de workshops e palestras que são realizadas pelas big techs, a partir deste segundo semestre ferramentas cujas finalidades vão desde melhorar o desempenho no uso de planilhas a acelerar a criatividade na produção de textos e imagens estarão incorporadas nas práticas empresariais.
O uso de IA promete uma revolução de produtividade, mas, neste momento, há o temor de que possa infringir a legislação vigente, causar prejuízos e violar direitos.
Essa questão tem desafiado os jurídicos corporativos. Afinal, ninguém quer ser surpreendido por demandas judiciais, impasses com Procons e órgãos reguladores setoriais, ou mesmo, ser cancelado nas redes sociais. Não bastasse o quadro legal já existente, há em curso uma onda regulatória sobre o tema que atinge tanto quem desenvolve quanto quem usa ferramentas de IA. A União Europeia aprovou no dia 14 de junho o AI Act, um regulamento que pretende garantir o desenvolvimento e uso ético de IA. No Brasil, o PL 2.338/2023, de teor semelhante, segue em trâmite no Senado brasileiro.
A boa notícia é que há soluções que podem ser aplicadas, satisfazendo as necessidades atuais para uso adequado de IA às normas atuais, e antecipando critérios regulatórios. Existem diversos mecanismos de compliance desde o projeto, que levam em conta a concepção, o desenvolvimento, o uso e o monitoramento da tecnologia. Mas todos os bons instrumentos passam por uma gestão de risco para o uso de IA responsável.
Para casos de empresas que vão usar ferramentas de IA é recomendável começar de forma rápida e segura, por meio de um instrumento já presente na prática europeia e que começa a ser utilizado por empresas no Brasil – a avaliação de impacto em inteligência artificial (AIIA). A realização de uma AIIA permite definir características do sistema, o contexto do uso de IA, e as partes interessadas envolvidas, bem como avaliar os riscos, estabelecer medidas para mitigá-los e monitorá-los ao longo do tempo.
Os fundamentos da AIIA são encontrados nas normas técnicas, entre elas a ISO/IEC 31000:2018 e a ISO/IEC 23894:2023, no âmbito da gestão de risco, a ISO/IEC 24368:2022 para questões de ética e a ISO/IEC 38507:2022, para temas relativos à governança do uso de IA e a ISO/IEC TR 24027:2021, que trata de viés e tomada de decisão.
É um instrumento ágil que, após sua implementação, permite escalar o compliance a partir dos riscos identificados pela própria empresa. A partir de elaboração de uma AIIA é possível que a empresa estabeleça diversas ações para fazer a gestão de risco, como a realização de treinamentos para uso responsável e ético, a implementação de um programa de governança em IA, a aplicação de medidas de transparência sobre o uso da tecnologia de forma clara e adequada às diferentes partes interessadas.
No projeto de Marco Legal de IA há a previsão de dois instrumentos de avaliação de tecnologia que podem se valer da experiência internacional decorrente do uso da AIIA. O primeiro deles, a Avaliação Preliminar, conforme o Artigo 13 do projeto, é documento obrigatório e prévio para a colocação de sistema de IA no mercado. O segundo é o Relatório de Impacto Algorítmico, previsto no Artigo 22 e obrigatório quando o sistema for considerado de alto risco, que traz uma série de requisitos mínimos, como avaliação de riscos, medidas de mitigação, transparência e monitoramento. Ambos podem se valer da experiência já consolidada no uso de AIIA.
O uso de IA potencializa riscos de violação de direitos protegidos pela Constituição, como dignidade da pessoa humana, não-discriminação, privacidade e proteção de dados. Muitos deles são também protegidos por legislações específicas, como a Lei Geral de Proteção de Dados, Código de Defesa do Consumidor, o Estatuto da Criança de Adolescente.
Nesse contexto, a AIIA é um instrumento estratégico para avaliar os riscos existentes na implementação de soluções de IA e para o desenvolvimento gradativo de um programa de compliance, algo essencial para um mundo em que o aumento de produtividade e de competitividade passa pelo uso intensivo de IA responsável.
LEIA TAMBÉM:
SIGA NOSSAS REDES