Skip to content

Latest commit

 

History

History
98 lines (66 loc) · 3.83 KB

README.md

File metadata and controls

98 lines (66 loc) · 3.83 KB

miniOmniLlama: Assistente AI com Cadeia de Raciocínio Aprimorada

Thumbnail do miniOmniLlama

O miniOmniLlama é um projeto que implementa um assistente de IA avançado, utilizando cadeias de raciocínio sofisticadas para melhorar a precisão e a profundidade das respostas. O sistema emprega uma abordagem única de prompting iterativo para gerar uma sequência lógica de passos antes de fornecer uma resposta final.

Características Principais

  • Interface gráfica interativa usando Gradio
  • Geração de cadeias de raciocínio usando modelos de linguagem avançados
  • Armazenamento e recuperação de cadeias de raciocínio aprovadas
  • Visualização dos passos de raciocínio e da resposta final em formato Markdown
  • Processo iterativo de refinamento da cadeia de pensamento

Como Funciona o Aperfeiçoamento da Cadeia de Pensamento

O miniOmniLlama utiliza um processo sofisticado para gerar e refinar cadeias de raciocínio:

  1. Inicialização: O sistema começa gerando uma cadeia de raciocínio inicial com base na pergunta e em cadeias aprovadas anteriormente.

  2. Avaliação de Relevância: As cadeias aprovadas são avaliadas quanto à sua relevância para a pergunta atual, garantindo que apenas informações pertinentes sejam consideradas.

  3. Processo Iterativo: O sistema então entra em um loop de refinamento:

    • Avalia se é necessário um próximo passo ou se já temos uma resposta final.
    • Se um próximo passo for necessário, ele é selecionado de uma lista predefinida de passos lógicos.
    • O passo selecionado é executado, gerando uma análise detalhada.
    • Este processo se repete até que uma resposta final seja alcançada ou um número máximo de iterações seja atingido.
  4. Síntese da Resposta: Após completar as iterações, o sistema sintetiza uma resposta final com base em todos os passos de raciocínio gerados.

  5. Aprovação e Armazenamento: O usuário tem a opção de aprovar a cadeia de raciocínio gerada, que é então armazenada para uso futuro, melhorando continuamente o desempenho do sistema.

Requisitos

  • Python 3.8+
  • Dependências listadas em requirements.txt
  • Ollama instalado no sistema
  • Modelo llama3.2 disponível no Ollama

Instalação

  1. Clone este repositório:

    git clone https://github.com/seu-usuario/miniOmniLlama.git
    cd miniOmniLlama
    
  2. Crie um ambiente virtual (opcional, mas recomendado):

    python -m venv venv
    source venv/bin/activate  # No Windows use `venv\Scripts\activate`
    
  3. Instale as dependências:

    pip install -r requirements.txt
    
  4. Instale o Ollama seguindo as instruções em https://ollama.ai/

  5. Baixe e execute o modelo llama3.2 no Ollama:

    ollama run llama3.2
    

Uso

  1. Certifique-se de que o modelo llama3.2 está rodando no Ollama:

    ollama run llama3.2
    
  2. Execute o script principal:

    python interface.py
    
  3. Abra o navegador e acesse o endereço local fornecido (geralmente http://127.0.0.1:7860).

  4. Digite uma pergunta na caixa de texto e clique em "Enviar".

  5. Observe os passos de raciocínio gerados e a resposta final.

  6. Se desejar, aprove a cadeia de raciocínio para uso futuro clicando em "Aprovar cadeia de raciocínio".

Estrutura do Projeto

  • interface.py: Contém a interface gráfica do usuário usando Gradio.
  • core.py: Implementa a lógica principal do assistente de IA, incluindo o processo de refinamento da cadeia de pensamento.
  • passos_padrao.txt: Lista de passos padrão para o processo de raciocínio.

Contribuindo

Contribuições são bem-vindas! Por favor, sinta-se à vontade para submeter pull requests ou abrir issues para discutir melhorias ou relatar problemas.

Licença

Este projeto está licenciado sob a licença MIT. Veja o arquivo LICENSE para mais detalhes.