Skip to content

Latest commit

 

History

History
181 lines (109 loc) · 8.44 KB

step_5.md

File metadata and controls

181 lines (109 loc) · 8.44 KB

Activer l'IAGen dans notre bot

The Matrix Reloaded

"Okay, you have some skill.", The Matrix Reloaded, Les Wachowski, 2003


Objectifs:
  • Configurer les paramètres de l'IA générative
  • Activer l'IA générative dans Tock Studio
  • Interroger le bot

Sommaire

Gen AI / RAG Settings

Configuration

Dans le menu de gauche au niveau Gen AI > RAG Settings (Retrieving augmented Generation) vous allez pouvoir choisir les modèles d'IA générative pris en charge par Tock et de configurer un ensemble de critères spécifiques à chaque fournisseur d'IA. Cette fonctionnalité permettra à TOCK de générer une réponse à une requête de l'utilisateur, sur la base d'un ensemble de documents intégrés dans une base de données vectorielle.

Pour accéder à cette page il faut bénéficier du rôle botUser, role que vous avez en étant admin.

Activation du RAG & Configuration du LLM Engine

Écran d'exemple d'une configuration du RAG avec le LLM Engine (a ne pas suivre):

RAG - Partie 1

RAG activation :

  • L’activation n’est possible qu’une fois que tous les champs marqués d’un * sont remplis.
  • Une fois les champs remplis, choisir si oui ou non, le bot doit offrir l’option RAG.

Un provider IA : (LLM Engine)

llm engine

  • Cette section permet de paramétrer les options liées au modèle IA qui génère la réponse à l’utilisateur.
  • Voir la liste des fournisseurs d'IA

Température :

temperature

  • On peut définir une température située entre 0 et 1.
  • Celle-ci permet de déterminer le niveau de créativité du Bot dans la réponse apportée à une requête qui lui est envoyée.

Prompt :

prompt

  • Le prompt est le script qui détermine la personnalité du Bot, le contexte dans lequel il doit répondre, la façon dont il doit s’adresser à l’utilisateur, les recommandations ou instructions de réponses, les styles et formats de réponses.

Configurer Ollama pour LLM Engine

Pour connecter ollama à Tock studio, il vous faut renseigner l’accès à Ollama via cette url d’accès (BaseUrl) : http://ollama-server:11434. Pour le modèle (Model), là c’est à vous de renseigner le nom du modèle que vous utilisez dans ce CodeLab (ici nous avons tinyllama). Enfin pour la température, vous pouvez laisser la valeur par défaut à 0.7.

rag settings ollama

Configurer OpenAi pour LLM Engine

Si vous souhaitez utiliser openAI, vous devez vous inscrire sur la plateforme OpenAI pour obtenir une clé d'API. Une fois cela fait rendez-vous à cette page https://platform.openai.com/api-keys pour générer votre clé d'API.

Dès que vous avez votre clé d'API, vous pouvez la renseigner dans le champ API Key et choisir le model (Model name) que vous souhaitez utiliser. Par exemple vous pourriez avoir ce genre de rendu.

rag settings  openai

Configurer AzureOpenAI pour LLM Engine

Si vous souhaitez utiliser Azure OpenAI, vous devez vous inscrire sur la plateforme Azure OpenAI et d'avoir un compte professionnel
afin d'avoir une clé d'API. Une fois cela fait, vous pouvez renseigner votre clé d'API dans le champ API Key et choisir le model (Model name) que vous souhaitez utiliser.

rag settings azure

Emdedding

Configurer Ollama pour Emdedding

Pour connecter ollama à Tock studio sur la partie embedding, il vous faut renseigner l’accès à Ollama via cette url d’accès (BaseUrl) : http://ollama-server:11434. Pour le modèle (Model), là c’est à vous de renseigner le nom du modèle que vous utilisez dans ce CodeLab (ici nous avons nomic-embed-text).

embedding ollama

Pour le reste de configuration, nous vous invitons à aller directement au chapitre Configuration final et activation

Configurer OpenAi pour Emdedding

Si vous souhaitez utiliser openAI, vous devez vous inscrire sur la plateforme OpenAI pour obtenir une clé d'API. Une fois cela fait rendez-vous à cette page https://platform.openai.com/api-keys pour générer votre clé d'API.

Dès que vous avez votre clé d'API, vous pouvez la renseigner dans le champ API Key et choisir le model (Model name) actuellement disponible : text-embedding-ada-002. Par exemple vous pourriez avoir ce genre de rendu.

embedding openai

Pour le reste de configuration, nous vous invitons à aller directement au chapitre Configuration final et activation

Configurer AzureOpenAI pour Emdedding

Si vous souhaitez utiliser Azure OpenAI, vous devez vous inscrire sur la plateforme Azure OpenAI et d'avoir un compte professionnel
afin d'avoir une clé d'API. Une fois cela fait, vous pouvez renseigner votre clé d'API dans le champ API Key et choisir le model (Model name) que vous souhaitez utiliser.

embedding azure

Pour le reste de configuration, nous vous invitons à aller directement au chapitre Configuration final et activation

Configuration final et activation

Cette partie s’attarde sur les intitulés Indexing session et Conversation flow.

indexing and conversation flow

Note importante :

Il faut que l’ingestion de données et cette configuration finale utilise le même LLM

En Étape 4, vous avez réalisé une ingestion de données, via un programme en python. Normalement, si l’ingestion a été correctement réalisé le programme a terminé avec un succès qui affiche des Id, comme dans l’exemple suivant :

résultat de l'ingestion en python

Dans ce résultat, vous avez une variable nommée Index session ID qui fournit un identifiant unique. Copier cet identifiant pour le coller dans le champ Indexing session id.

Dans l’intitulé Conversation flow et dans le champ No answer sentence, vous devez spécifier une phrase lorsque l’IA n’est pas capable de répondre. Par la même occasion, vous pouvez aussi rediriger vers une story spécifique dans le champ Unanswered story redirection

Par exemple si on met à jour les différents éléments et que vous sauvegardez en cliquant en haut sur le bouton bleu SAVE, vous devriez voir apparaitre une bannière verte signifiant que tout est correcte.

rag settings final

Dès que cela est bon, vous pouvez activer le RAG, en revenant en haut de page (par défaut celui-ci est désactivé).

activation du rag

Interroger le bot

Maintenant vous pouvez discuter avec le bot et lui poser des questions.

question avec le rag

Étape suivante