« ORIA — Configuration technique » : différence entre les versions

De Boite A Outils
Aller à la navigation Aller à la recherche
Aucun résumé des modifications
Aucun résumé des modifications
Ligne 6 : Ligne 6 :
== Modèles ==
== Modèles ==


=== Génération de réponses ===
=== Génération de réponses (LLM) ===


ORIA utilise '''Ollama''' comme moteur d'inférence local. Le modèle de langage actuellement en production est '''Qwen 2.5 32B''', un modèle open source développé par Alibaba Cloud, exécuté entièrement sur l'infrastructure des OA sans aucun appel à un service externe.
ORIA repose sur un '''LLM''' (Large Language Model, ou grand modèle de langage) pour générer ses réponses. Un LLM est un modèle d'intelligence artificielle entraîné sur de grandes quantités de texte, capable de comprendre une question en langage naturel et de rédiger une réponse cohérente.
 
Le LLM actuellement en production est '''Qwen 2.5 32B''', un modèle open source développé par Alibaba Cloud. Il est servi localement via '''Ollama''', un moteur d'inférence qui permet de faire tourner des LLM sur sa propre infrastructure. Aucun appel à un service cloud externe n'est effectué — le modèle tourne entièrement sur les serveurs des OA.


=== Embeddings ===
=== Embeddings ===

Version du 10 avril 2026 à 08:52

ORIA — Configuration technique

Cette page décrit les technologies embarquées dans ORIA. Elle est destinée aux membres intéressés par le fonctionnement interne du système.

Modèles

Génération de réponses (LLM)

ORIA repose sur un LLM (Large Language Model, ou grand modèle de langage) pour générer ses réponses. Un LLM est un modèle d'intelligence artificielle entraîné sur de grandes quantités de texte, capable de comprendre une question en langage naturel et de rédiger une réponse cohérente.

Le LLM actuellement en production est Qwen 2.5 32B, un modèle open source développé par Alibaba Cloud. Il est servi localement via Ollama, un moteur d'inférence qui permet de faire tourner des LLM sur sa propre infrastructure. Aucun appel à un service cloud externe n'est effectué — le modèle tourne entièrement sur les serveurs des OA.

Embeddings

La recherche dans le wiki repose sur le modèle d'embeddings BGE-M3, également servi via Ollama. Ce modèle transforme les textes (questions et chunks du wiki) en vecteurs numériques qui permettent de mesurer leur similarité sémantique.

Base de données vectorielle

Les chunks du wiki sont indexés dans Qdrant, une base de données vectorielle open source haute performance. C'est elle qui permet à ORIA de retrouver rapidement les passages du wiki les plus pertinents pour répondre à une question donnée.

Mémoire conversationnelle

L'historique des sessions est conservé dans une base PostgreSQL dédiée. Cela permet à ORIA de maintenir le fil d'une conversation et de répondre à des questions de suivi cohérentes au sein d'une même session.

Source de connaissance

ORIA ingère exclusivement le wiki officiel des Orphelins de l'Apocalypse. Le wiki est ré-indexé automatiquement toutes les 24 heures. Une ré-indexation manuelle peut être déclenchée par un administrateur si une mise à jour urgente du wiki doit être répercutée immédiatement.

Pages liées