[DIÁRIOS DA IA] Os riscos do uso de Inteligência Artificial nas empresas – e como mitigá-los

Voce está em :Home-Opinião, Sociedade-[DIÁRIOS DA IA] Os riscos do uso de Inteligência Artificial nas empresas – e como mitigá-los

[DIÁRIOS DA IA] Os riscos do uso de Inteligência Artificial nas empresas – e como mitigá-los

A forma como uma empresa implementa a IA é crucial para determinar os riscos que ela enfrentará no uso desta tecnologia

A forma como uma empresa implementa a IA é crucial para determinar os riscos que ela enfrentará – a conscientização e a preparação são essenciais para aproveitar os benefícios da tecnologia. / Imagem: SC Inova/DALL-E


[20.08.2024]

Por Eduardo Barbosa, CEO da Brognoli Imóveis e um dos responsáveis pelo Conselho Mudando o Jogo (CMJ) em SC e RS. Escreve sobre inteligência artificial no ambiente corporativo na série “Diários de IA

A adoção de Inteligência Artificial (IA) nas empresas tem se mostrado uma tendência irresistível, mas com ela vem uma série de riscos que precisam ser gerenciados com cuidado. Neste artigo, vamos explorar os principais riscos associados ao uso de IA nas empresas e discutir as melhores estratégias para mitigá-los. A máxima “Your Risks Depend on Your Implementation” (“seus riscos dependem de sua implementação”) resume bem a complexidade e as variáveis envolvidas. 

Vamos analisar como diferentes abordagens podem impactar os riscos enfrentados pelas empresas.

“YOUR RISKS DEPEND ON YOUR IMPLEMENTATION”

A forma como uma empresa implementa a IA é crucial para determinar os riscos que ela enfrentará. Existem diversas variáveis a considerar, como o processo de negócios onde a IA será aplicada (produtividade, P&D, fornecedores de SaaS), a origem do modelo (Proprietário vs. Código Aberto/Open Source), e os ajustes realizados (modelo próprio, pré-configurado, ajustado, ou incrementado com recuperação de dados).

Além disso, o acesso e a hospedagem (chamadas API, hospedagem na nuvem ou on-premises) são decisivos para o grau de controle e exposição aos riscos. Cada uma dessas escolhas influencia diretamente o tipo e a magnitude dos riscos enfrentados.

CONFIABILIDADE E MATURIDADE TECNOLÓGICA 

Os sistemas de IA são frequentemente descritos como “caixas-pretas”, apresentando comportamentos imprevisíveis e problemas como alucinações e viéses. A tecnologia ainda está em maturação, o que pode resultar em falhas inesperadas. Para mitigar esses riscos, é essencial uma avaliação rigorosa dos sistemas (como a liberação de system cards) e a adoção de práticas de prompting otimizadas. Além disso, é recomendável a construção de opções de fallback (usar outros mecanismos para chegar aos mesmos resultados) em processos críticos e o monitoramento contínuo de aplicações de terceiros.

RISCOS REGULATÓRIOS E DE CONFORMIDADE

A regulamentação da IA ainda está em seus estágios iniciais, com normas e diretrizes sendo desenvolvidas globalmente. A falta de clareza regulatória atual pode ser substituída por regulações mais rigorosas no futuro, impactando diretamente as operações das empresas. Diferenças regionais nas regulamentações e a necessidade de integrar a IA aos programas de conformidade são desafios significativos. A mitigação passa por uma observação atenta das regulamentações mais avançadas, como o Ato de IA da UE, e por uma avaliação dos negócios em relação às categorias de risco.

PRIVACIDADE E SEGURANÇA DE DADOS 

A manipulação de dados, armazenamento e transferências transfronteiriças representam grandes riscos para as empresas que adotam IA. A proteção da propriedade intelectual e a prevenção de ataques como envenenamento de dados e comandos ocultos são essenciais. Para mitigar esses riscos, as empresas devem conhecer profundamente suas obrigações legais, evitar treinar modelos com dados proprietários e aprofundar-se na postura de segurança (ex.: certificações SOC2).

DESAFIOS DE INTEGRAÇÃO E CUSTOS 

Integrar sistemas de IA à infraestrutura de TI existente pode ser complexo e caro. O custo do tráfego de IA, especialmente em modelos proprietários, e os investimentos necessários em infraestrutura são obstáculos significativos. A mitigação inclui compreender as compensações de complexidade, optar por modelos proprietários mais plug & play, e desenvolver expertise interna.

DEPENDÊNCIA DE FORNECEDORES 

A dependência de fornecedores externos para soluções de IA pode levar a problemas como o lock-in, descontinuidade de serviços e riscos associados à controlabilidade e portabilidade. As empresas podem mitigar esses riscos considerando a construção de modelos próprios, escolhendo fornecedores de alta reputação e criando opções de fallback.

IMPACTO NA FORÇA DE TRABALHO 

A implementação de IA pode resultar em mudanças significativas na força de trabalho, incluindo a necessidade de treinamento em novas habilidades, atualização de fluxos de trabalho, e até mesmo reduções na equipe. A mitigação envolve comunicação aberta sobre a estratégia de IA, planejamento para facilitar a transição de habilidades e a implementação de práticas éticas de IA.

RISCO REPUTACIONAL 

Os sistemas de IA generativa estão longe de serem perfeitos e podem produzir informações incorretas ou resultados antiéticos, impactando a percepção pública e a confiança nas aplicações de IA. A mitigação desse risco envolve comunicação transparente, testes robustos, monitoramento contínuo e preparação para gerenciamento de crises.

Em suma, os riscos associados ao uso de IA nas empresas são variados e complexos, dependendo fortemente de como a IA é implementada e gerenciada. Desde a confiabilidade tecnológica até os impactos na força de trabalho e a reputação, cada aspecto exige uma abordagem cuidadosa e estratégica para mitigação. 

A conscientização e a preparação são essenciais para que as empresas possam aproveitar os benefícios da IA enquanto minimizam os riscos. À medida que a IA continua a evoluir, as empresas que conseguem navegar esses desafios estarão melhor posicionadas para liderar a inovação e o crescimento em seus setores.

REFERÊNCIAS BIBLIOGRÁFICAS COMENTADAS:

  • Altenschmidt, Janko. (2024). AI & Company Risks.*
    Aborda os riscos associados à adoção de IA em empresas, com ênfase em confiabilidade tecnológica, riscos regulatórios, privacidade de dados, integração, dependência de fornecedores, impacto na força de trabalho e risco reputacional.
  • Brynjolfsson, Erik, & McAfee, Andrew. (2014). The Second Machine Age: Work, Progress, and Prosperity in a Time of Brilliant Technologies. W.W. Norton & Company.
    Este livro oferece insights sobre como a tecnologia, incluindo a IA, está transformando o trabalho e a economia, além de discutir os desafios e oportunidades associados.
  • Russell, Stuart, & Norvig, Peter. (2020). Artificial Intelligence: A Modern Approach (4th ed.). Pearson.
    Um dos livros mais respeitados sobre IA, abordando desde fundamentos até implicações éticas e de segurança na implementação de sistemas de IA.
  • Bostrom, Nick. (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press.
    Discussão profunda sobre os riscos existenciais e os desafios de segurança associados ao desenvolvimento de IA avançada.
  • Gasser, Urs, & Almeida, Virgilio. (2017). A Layered Model for AI Governance. IEEE Internet Computing.
    Um artigo que propõe um modelo de governança para IA, discutindo como as empresas podem abordar os desafios regulatórios e de conformidade.
  • Müller, Vincent C. (ed.). (2016). Risks of Artificial Intelligence. CRC Press.
    Este livro oferece uma coleção de ensaios que exploram os diversos riscos associados à IA, incluindo considerações tecnológicas, éticas e sociais.
  • Goodman, Bryce, & Flaxman, Seth. (2017). European Union regulations on algorithmic decision-making and a “right to explanation”. AI Magazine, 38(3), 50-57.
    Discussão sobre as regulamentações da UE em relação à IA e o direito à explicação, relevante para as questões de conformidade e regulamentação.

LEIA TAMBÉM: