ORIA — Configuration technique

De Boite A Outils
Aller à la navigation Aller à la recherche

ORIA — Configuration technique

Cette page décrit les technologies embarquées dans ORIA. Elle est destinée aux membres intéressés par le fonctionnement interne du système.

Modèles

Génération de réponses

ORIA utilise Ollama comme moteur d'inférence local. Le modèle de langage actuellement en production est Qwen 2.5 32B, un modèle open source développé par Alibaba Cloud, exécuté entièrement sur l'infrastructure des OA sans aucun appel à un service externe.

Embeddings

La recherche dans le wiki repose sur le modèle d'embeddings BGE-M3, également servi via Ollama. Ce modèle transforme les textes (questions et chunks du wiki) en vecteurs numériques qui permettent de mesurer leur similarité sémantique.

Base de données vectorielle

Les chunks du wiki sont indexés dans Qdrant, une base de données vectorielle open source haute performance. C'est elle qui permet à ORIA de retrouver rapidement les passages du wiki les plus pertinents pour répondre à une question donnée.

Mémoire conversationnelle

L'historique des sessions est conservé dans une base PostgreSQL dédiée. Cela permet à ORIA de maintenir le fil d'une conversation et de répondre à des questions de suivi cohérentes au sein d'une même session.

Source de connaissance

ORIA ingère exclusivement le wiki officiel des Orphelins de l'Apocalypse. Le wiki est ré-indexé automatiquement toutes les 24 heures. Une ré-indexation manuelle peut être déclenchée par un administrateur si une mise à jour urgente du wiki doit être répercutée immédiatement.

Pages liées