[DIÁRIOS DA IA] Avanço no horizonte cognitivo da IA: a revolução do raciocínio autônomo

Voce está em :Home-Opinião, Sociedade-[DIÁRIOS DA IA] Avanço no horizonte cognitivo da IA: a revolução do raciocínio autônomo

[DIÁRIOS DA IA] Avanço no horizonte cognitivo da IA: a revolução do raciocínio autônomo

Na era da IA introspectiva, os modelos possuem uma compreensão mais profunda de seus processos de tomada de decisão e não apenas do resultado.

Começamos a viver na era da “Inteligência Artificial introspectiva”, na qual os modelos possuem uma compreensão mais profunda de seus processos de tomada de decisão e não apenas do resultado.  / Imagem: SC Inova/DALL-E


[03.09.2024]

Por Eduardo Barbosa, CEO da Brognoli Imóveis e um dos responsáveis pelo Conselho Mudando o Jogo (CMJ) em SC e RS. Escreve sobre inteligência artificial no ambiente corporativo na série “Diários de IA”

Os avanços rápidos na inteligência artificial (IA) estão cada vez mais focados em aprimorar as capacidades cognitivas dos Modelos de Linguagem Grande (LLMs). Um conceito crítico que está revolucionando o desenvolvimento da IA é o “raciocínio autônomo”. 

Esta mudança de paradigma está promovendo a criação de sistemas que são mais confiáveis e adaptáveis e também significativamente mais capazes. À medida que a IA continua a evoluir, abordagens inovadoras para o raciocínio autônomo estão abrindo as portas para uma nova era de IA introspectiva, onde os modelos possuem uma compreensão mais profunda de seus processos de tomada de decisão e não apenas do resultado.

 Este artigo explora várias estratégias inovadoras que estão abrindo o caminho para esses desenvolvimentos.

1. Árvore de Pensamentos: resolução deliberada de problemas com grandes modelos de linguagem

A abordagem “Árvore de Pensamentos” (ToT) é uma nova estratégia que estende o método convencional de cadeia de pensamento, permitindo que os LLMs explorem unidades textuais coerentes, chamadas de “pensamentos”, que atuam como passos intermediários na resolução de problemas. Desenvolvida por pesquisadores da Universidade de Princeton e do Google DeepMind, essa estrutura permite uma resolução de problemas mais estruturada e estratégica ao integrar técnicas como busca em largura (BFS) e busca em profundidade (DFS). A introdução de novas tarefas de avaliação, como o Jogo de 24 e a Redação Criativa, demonstrou melhorias significativas em tarefas que exigem planejamento ou busca não trivial.

2. Prompting de Menos para Mais: melhorando o raciocínio complexo

A abordagem de Prompting de Menos para Mais, introduzida pela equipe do Google Brain, aborda as limitações do prompting de cadeia de pensamento ao decompor problemas complexos em subproblemas mais simples. Esse método permite que os LLMs resolvam problemas sequencialmente, aproveitando as soluções anteriores para enfrentar aspectos mais desafiadores. A estratégia mostrou melhorias marcantes em áreas como manipulação simbólica e raciocínio matemático, superando métodos tradicionais por uma margem significativa.

3. Raciocínio multimodal em cadeia de pensamentos: integrando visão e linguagem

O framework Multimodal-CoT, uma colaboração entre a Universidade de Shanghai Jiao Tong e a Amazon Web Services, introduz um processo de raciocínio em duas etapas que integra modalidades de linguagem e visão. Ao separar a geração de raciocínios da inferência de respostas, essa abordagem reduz significativamente as alucinações e melhora a precisão dos modelos com menos de 100 bilhões de parâmetros. O sucesso do framework em benchmarks como ScienceQA demonstra seu potencial para aprimorar as capacidades de raciocínio dos LLMs ao incorporar informações multimodais.

4. Raciocínio via planejamento: introduzindo modelos de mundo

O Raciocínio via Planejamento (RAP) é uma estrutura desenvolvida por pesquisadores da UC San Diego e da Universidade da Flórida que redefine os LLMs como modelos de mundo e agentes de raciocínio. Essa abordagem aborda as inadequações dos LLMs em tarefas simples de raciocínio ao aumentá-los com um modelo interno do mundo, permitindo a simulação de resultados a longo prazo e planejamento estratégico. O framework RAP mostrou desempenho superior em tarefas como Blocksworld e raciocínio matemático, superando significativamente métodos tradicionais de raciocínio.

5. Cadeia de verificação: reduzindo alucinações em LLMs

O método Cadeia de Verificação (CoVe), proposto pela equipe do Meta AI, visa reduzir alucinações — respostas factualmente incorretas, mas plausíveis — implementando um processo de verificação estruturado. O CoVe envolve a geração de perguntas de verificação que checam independentemente a precisão de uma resposta inicial, refinando a saída final com base nessas verificações. O método demonstrou melhorias consideráveis na precisão em várias tarefas, incluindo questões baseadas em listas e geração de texto longo.

CONCLUSÃO: o futuro do raciocínio autônomo na IA

A exploração do raciocínio autônomo em LLMs marca um passo significativo no desenvolvimento de sistemas de IA que são não apenas capazes, mas também introspectivos e autoconscientes. As abordagens inovadoras discutidas — desde o framework Árvore de Pensamentos até o método Cadeia de Verificação — ilustram as diversas estratégias empregadas para aprimorar as capacidades cognitivas da IA. 

À medida que a pesquisa continua a avançar, esses avanços prometem inaugurar uma nova era de sistemas inteligentes capazes de realizar tarefas cognitivas sofisticadas, transformando potencialmente diversas indústrias e disciplinas. O desenvolvimento contínuo do raciocínio autônomo na IA é crucial para criar modelos mais confiáveis, adaptáveis e capazes, impulsionando o futuro da inteligência artificial.

REFERÊNCIAS BIBLIOGRÁFICAS

  • Árvore de Pensamentos: Resolução Deliberada de Problemas com Modelos de Linguagem Grande: Researchers from Princeton University and Google DeepMind. (2023). Tree of Thoughts: Deliberate Problem Solving with Large Language Models. Apresentado no NeurIPS 2023. Disponível em: https://arxiv.org/abs/2310.01798
  • Prompting de Menos para Mais: Melhorando o Raciocínio Complexo: Google Brain Team. (2023). Least-to-Most Prompting Enables Complex Reasoning in Large Language Models. Introduzido no ICLR 2023. Disponível em:https://arxiv.org/abs/2205.10625
  • Raciocínio Multimodal em Cadeia de Pensamentos: Integrando Visão e Linguagem: Shanghai Jiao Tong University and Amazon Web Services. (2023). Multimodal Chain-of-Thought Reasoning in Language Models. Disponível em: https://arxiv.org/abs/2305.10601
  • Raciocínio via Planejamento: Introduzindo Modelos de Mundo: UC San Diego and University of Florida. (2023). Reasoning with Language Model is Planning with World Model. Apresentado no EMNLP 2023. Disponível em: https://arxiv.org/abs/2302.00923
  • Cadeia de Verificação: Reduzindo Alucinações em LLMs Meta AI Team. (2023). Chain-of-Verification Reduces Hallucination in Large Language Models. Disponível em: https://arxiv.org/abs/2309.11495

LEIA TAMBÉM: