« ORIA — Configuration technique » : différence entre les versions

De Boite A Outils
Aller à la navigation Aller à la recherche
Ligne 8 : Ligne 8 :
=== Génération de réponses ===
=== Génération de réponses ===


ORIA utilise '''[[Ollama]]''' comme moteur d'inférence local. Le modèle de langage actuellement en production est '''Qwen 2.5 32B''', un modèle open source développé par Alibaba Cloud, exécuté entièrement sur l'infrastructure des OA sans aucun appel à un service externe.
ORIA utilise '''Ollama''' comme moteur d'inférence local. Le modèle de langage actuellement en production est '''Qwen 2.5 32B''', un modèle open source développé par Alibaba Cloud, exécuté entièrement sur l'infrastructure des OA sans aucun appel à un service externe.


=== Embeddings ===
=== Embeddings ===

Version du 10 avril 2026 à 08:16

ORIA — Configuration technique

Cette page décrit les technologies embarquées dans ORIA. Elle est destinée aux membres intéressés par le fonctionnement interne du système.

Modèles

Génération de réponses

ORIA utilise Ollama comme moteur d'inférence local. Le modèle de langage actuellement en production est Qwen 2.5 32B, un modèle open source développé par Alibaba Cloud, exécuté entièrement sur l'infrastructure des OA sans aucun appel à un service externe.

Embeddings

La recherche dans le wiki repose sur le modèle d'embeddings BGE-M3, également servi via Ollama. Ce modèle transforme les textes (questions et chunks du wiki) en vecteurs numériques qui permettent de mesurer leur similarité sémantique.

Base de données vectorielle

Les chunks du wiki sont indexés dans Qdrant, une base de données vectorielle open source haute performance. C'est elle qui permet à ORIA de retrouver rapidement les passages du wiki les plus pertinents pour répondre à une question donnée.

Paramètres RAG

Le pipeline RAG (Retrieval-Augmented Generation) est configuré comme suit :

Paramètre Description
Chunks max par requête Nombre maximum de passages wiki injectés dans le contexte
Score de pertinence minimum En dessous de ce seuil, un chunk est ignoré
Taille d'un chunk Taille des blocs de découpe du wiki à l'ingestion
Chevauchement entre chunks Recouvrement entre deux chunks consécutifs pour ne pas perdre le contexte aux jointures

Mémoire conversationnelle

L'historique des sessions est conservé dans une base PostgreSQL dédiée. Cela permet à ORIA de maintenir le fil d'une conversation et de répondre à des questions de suivi cohérentes au sein d'une même session.

Source de connaissance

ORIA ingère exclusivement le wiki officiel des Orphelins de l'Apocalypse. Le wiki est ré-indexé automatiquement toutes les 24 heures. Une ré-indexation manuelle peut être déclenchée par un administrateur si une mise à jour urgente du wiki doit être répercutée immédiatement.

Pages liées