Não é apenas uma questão de conformidade regulatória, mas um imperativo moral para assegurar que as tecnologias de IA promovam o bem-estar social e respeitem os direitos humanos. / Imagem: SC Inova/DALL-E
[09.08.2024]
Por Eduardo Barbosa, CEO da Brognoli Imóveis e um dos responsáveis pelo Conselho Mudando o Jogo (CMJ) em SC e RS. Escreve sobre inteligência artificial no ambiente corporativo na série “Diários de IA”
A Inteligência Artificial (IA) está cada vez mais presente em diversos aspectos de nossas vidas, e com isso surge a necessidade imperativa de garantir que esses sistemas sejam desenvolvidos e implementados de maneira ética, transparente e responsável.
A IA Responsável não é apenas uma questão de conformidade regulatória, mas um imperativo moral para assegurar que as tecnologias de AI promovam o bem-estar social e respeitem os direitos humanos. Para alcançar este objetivo, é essencial que as organizações adotem uma abordagem estruturada que integre três pilares fundamentais: Pessoas, Processos e Tecnologia.
PILAR 1: PESSOAS
O pilar “Pessoas” foca em quem está construindo ou utilizando a AI. Este pilar abrange a cultura da empresa, o treinamento, e as necessidades de liderança. Ele se desdobra em três elementos principais: Educar, Motivar e Comunicar.
Educar: A educação é crucial para garantir que as equipes envolvidas tenham as competências e conhecimentos necessários para aplicar os princípios éticos na análise de decisões envolvendo AI. Isso envolve identificar quem precisa de treinamento específico em ética e valores, quais são as lacunas de conhecimento e qual o formato mais adequado para esse aprendizado. A capacitação contínua é essencial para que todos os envolvidos possam engajar-se criticamente na aplicação de valores éticos ao desenvolvimento de AI.
Motivar: Este elemento está relacionado à criação de incentivos que reforcem positivamente o engajamento com práticas de AI Responsável. A motivação é vital para cultivar uma cultura organizacional que valorize a participação ativa em práticas éticas e na tomada de decisões responsáveis. Identificar quais ações ou comportamentos precisam ser incentivados e como isso será feito é uma parte fundamental para assegurar que os princípios éticos sejam incorporados no dia a dia da organização.
Comunicar: A comunicação eficiente dentro da organização é essencial para quebrar silos e fomentar a colaboração interdisciplinar em práticas de AI Responsável. É necessário identificar quem precisa se comunicar sobre AI Responsável, quais informações precisam ser trocadas e onde e quando essas conversas devem ocorrer. A comunicação clara e contínua ajuda a garantir que todos os departamentos estejam alinhados com os objetivos éticos da empresa.
PILAR 2: PROCESSOS
O pilar “Processos” concentra-se em como a AI está sendo desenvolvida ou utilizada, abrangendo estruturas operacionais e de governança necessárias para a execução de AI Responsável. Este pilar inclui os elementos de Intenção, Implementação e Instrumentação.
Intenção: Refere-se à definição de políticas empresariais que forneçam diretrizes estratégicas para práticas éticas em AI. A intenção clara e consistente é necessária para orientar como os valores éticos serão geridos na prática. É preciso identificar quais funções empresariais precisam de diretrizes éticas e qual tipo de política será mais eficaz para fornecer essa orientação.
Implementação: Trata-se de criar um framework processual que direcione a execução de práticas de AI Responsável e a tomada de decisões éticas. A implementação eficiente assegura que haja um curso de ação padronizado para colocar em prática os valores éticos durante o ciclo de vida da AI. Decidir em que ponto do ciclo de vida da AI este framework será utilizado e se será necessário construir um novo, adaptar um existente ou personalizar um framework genérico é crucial para uma implementação bem-sucedida.
Instrumentação: Refere-se ao uso de ferramentas e software que padronizem a implementação das práticas de AI Responsável, automatizando processos onde apropriado e aumentando a eficiência. A escolha das ferramentas certas é essencial para garantir que a execução das práticas éticas seja escalável e consistente.
PILAR 3: TECNOLOGIA
O pilar “Tecnologia” foca no que está sendo construído ou utilizado em AI, abrangendo as melhores práticas de desenvolvimento e adoção necessárias para o sucesso ético da AI. Os três elementos principais deste pilar são Dados, Documentação e Domínio.
Dados: Refere-se à incorporação de valores éticos nos dados utilizados para treinar e testar modelos de AI. A gestão do ciclo de vida dos dados deve estar alinhada com os valores éticos da organização para garantir que a AI seja construída sobre uma base eticamente sólida. É necessário identificar quais valores éticos precisam ser incorporados, em qual estágio do ciclo de vida dos dados isso deve ocorrer e qual método será utilizado.
Documentação: A documentação de todas as decisões tomadas durante o ciclo de vida de um modelo de AI é fundamental para a transparência. Esta prática assegura que as escolhas feitas durante o desenvolvimento do AI estejam claras e acessíveis, permitindo auditorias e revisões posteriores. Identificar quem é responsável por documentar essas decisões, quais tipos de decisões precisam ser registradas e onde essa documentação será armazenada é essencial para a governança de AI Responsável.
Domínio: Este elemento envolve a coleta de feedback de especialistas e clientes em momentos específicos do ciclo de vida da AI, permitindo que os modelos sejam refinados e alinhados com valores éticos. O feedback contínuo e especializado é vital para iterar e ajustar a AI de acordo com os valores éticos da organização. Decidir de quem o feedback é necessário, com que frequência ele deve ser coletado e em que estágio do ciclo de vida da AI isso deve acontecer são decisões críticas para este processo.
ROADMAP DE IMPLEMENTAÇÃO DA IA RESPONSÁVEL
Diagnóstico Inicial: Avalie o estado atual da sua organização em relação à AI e identifique as lacunas nos três pilares: Pessoas, Processos e Tecnologia.
Desenvolvimento de Políticas e Diretrizes: Crie ou revise políticas que definam claramente a intenção ética da organização em relação à AI.
Capacitação e Educação: Implementar programas de treinamento para assegurar que todos os colaboradores envolvidos tenham as habilidades e conhecimentos necessários.
Ferramentas e Frameworks: Selecione e implemente ferramentas que suportem a padronização e automação de práticas de AI Responsável.
Feedback e Iteração: Estabeleça um ciclo contínuo de feedback com especialistas e clientes para ajustar e refinar os modelos de AI.
Monitoramento e Revisão: Monitore continuamente as práticas de AI Responsável e revise as políticas e frameworks conforme necessário para se adaptar a novos desafios e avanços tecnológicos.
Este roadmap fornece um guia claro e acionável para organizações que desejam adotar práticas de AI Responsável, assegurando que a tecnologia desenvolvida seja ética, transparente e beneficie a sociedade como um todo.
REFERÊNCIAS BIBLIOGRÁFICAS:
- Gambelin, Olivia.Responsible AI: How to Implement AI That Aligns with Your Values and Your Organization. Kogan Page, 2023
- Dignum, Virginia. Responsible Artificial Intelligence: How to Develop and Use AI in a Responsible Way. Springer, 2019.
- Floridi, Luciano, e Mariarosaria Taddeo. What Is Data Ethics? Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences, 374.2083 (2016): 20160360.
- Mittelstadt, Brent Daniel, Patrick Allo, Mariarosaria Taddeo, Sandra Wachter, e Luciano Floridi. The Ethics of Algorithms: Mapping the Debate. Big Data & Society, 3.2 (2016): 2053951716679679.
SIGA NOSSAS REDES