O miniOmniLlama é um projeto que implementa um assistente de IA avançado, utilizando cadeias de raciocínio sofisticadas para melhorar a precisão e a profundidade das respostas. O sistema emprega uma abordagem única de prompting iterativo para gerar uma sequência lógica de passos antes de fornecer uma resposta final.
- Interface gráfica interativa usando Gradio
- Geração de cadeias de raciocínio usando modelos de linguagem avançados
- Armazenamento e recuperação de cadeias de raciocínio aprovadas
- Visualização dos passos de raciocínio e da resposta final em formato Markdown
- Processo iterativo de refinamento da cadeia de pensamento
O miniOmniLlama utiliza um processo sofisticado para gerar e refinar cadeias de raciocínio:
-
Inicialização: O sistema começa gerando uma cadeia de raciocínio inicial com base na pergunta e em cadeias aprovadas anteriormente.
-
Avaliação de Relevância: As cadeias aprovadas são avaliadas quanto à sua relevância para a pergunta atual, garantindo que apenas informações pertinentes sejam consideradas.
-
Processo Iterativo: O sistema então entra em um loop de refinamento:
- Avalia se é necessário um próximo passo ou se já temos uma resposta final.
- Se um próximo passo for necessário, ele é selecionado de uma lista predefinida de passos lógicos.
- O passo selecionado é executado, gerando uma análise detalhada.
- Este processo se repete até que uma resposta final seja alcançada ou um número máximo de iterações seja atingido.
-
Síntese da Resposta: Após completar as iterações, o sistema sintetiza uma resposta final com base em todos os passos de raciocínio gerados.
-
Aprovação e Armazenamento: O usuário tem a opção de aprovar a cadeia de raciocínio gerada, que é então armazenada para uso futuro, melhorando continuamente o desempenho do sistema.
- Python 3.8+
- Dependências listadas em
requirements.txt
- Ollama instalado no sistema
- Modelo llama3.2 disponível no Ollama
-
Clone este repositório:
git clone https://github.com/seu-usuario/miniOmniLlama.git cd miniOmniLlama
-
Crie um ambiente virtual (opcional, mas recomendado):
python -m venv venv source venv/bin/activate # No Windows use `venv\Scripts\activate`
-
Instale as dependências:
pip install -r requirements.txt
-
Instale o Ollama seguindo as instruções em https://ollama.ai/
-
Baixe e execute o modelo llama3.2 no Ollama:
ollama run llama3.2
-
Certifique-se de que o modelo llama3.2 está rodando no Ollama:
ollama run llama3.2
-
Execute o script principal:
python interface.py
-
Abra o navegador e acesse o endereço local fornecido (geralmente http://127.0.0.1:7860).
-
Digite uma pergunta na caixa de texto e clique em "Enviar".
-
Observe os passos de raciocínio gerados e a resposta final.
-
Se desejar, aprove a cadeia de raciocínio para uso futuro clicando em "Aprovar cadeia de raciocínio".
interface.py
: Contém a interface gráfica do usuário usando Gradio.core.py
: Implementa a lógica principal do assistente de IA, incluindo o processo de refinamento da cadeia de pensamento.passos_padrao.txt
: Lista de passos padrão para o processo de raciocínio.
Contribuições são bem-vindas! Por favor, sinta-se à vontade para submeter pull requests ou abrir issues para discutir melhorias ou relatar problemas.
Este projeto está licenciado sob a licença MIT. Veja o arquivo LICENSE
para mais detalhes.