« ORIA — Configuration technique » : différence entre les versions

De Boite A Outils
Aller à la navigation Aller à la recherche
Page créée avec « = ORIA — Configuration technique = Cette page décrit les technologies embarquées dans ORIA. Elle est destinée aux membres intéressés par le fonctionnement interne du système. == Modèles == === Génération de réponses === ORIA utilise '''Ollama''' comme moteur d'inférence local. Le modèle de langage actuellement en production est '''Qwen 2.5 32B''', un modèle open source développé par Alibaba Cloud, exécuté entièrement sur l'infrastructu... »
 
Aucun résumé des modifications
 
(9 versions intermédiaires par le même utilisateur non affichées)
Ligne 1 : Ligne 1 :
🤖 '''[[ORIA|ORIA]]''' — Assistant IA de la communauté OA
= ORIA — Configuration technique =
= ORIA — Configuration technique =


Ligne 6 : Ligne 8 :
== Modèles ==
== Modèles ==


=== Génération de réponses ===
=== Génération de réponses (LLM) ===


ORIA utilise '''[[Ollama]]''' comme moteur d'inférence local. Le modèle de langage actuellement en production est '''Qwen 2.5 32B''', un modèle open source développé par Alibaba Cloud, exécuté entièrement sur l'infrastructure des OA sans aucun appel à un service externe.
ORIA repose sur un '''LLM''' (Large Language Model, ou grand modèle de langage) pour générer ses réponses. Un LLM est un modèle d'intelligence artificielle entraîné sur de grandes quantités de texte, capable de comprendre une question en langage naturel et de rédiger une réponse cohérente.
 
Le LLM actuellement en production est '''Qwen 2.5 32B''', un modèle open source développé par Alibaba Cloud. Il est servi localement via '''Ollama''', un moteur d'inférence qui permet de faire tourner des LLM sur sa propre infrastructure. Aucun appel à un service cloud externe n'est effectué — le modèle tourne entièrement sur les serveurs des OA.


=== Embeddings ===
=== Embeddings ===
Ligne 16 : Ligne 20 :
== Base de données vectorielle ==
== Base de données vectorielle ==


Les chunks du wiki sont indexés dans '''[[Qdrant]]''', une base de données vectorielle open source haute performance. C'est elle qui permet à ORIA de retrouver rapidement les passages du wiki les plus pertinents pour répondre à une question donnée.
Les chunks du wiki sont indexés dans '''Qdrant''', une base de données vectorielle open source haute performance. C'est elle qui permet à ORIA de retrouver rapidement les passages du wiki les plus pertinents pour répondre à une question donnée.
 
== Paramètres RAG ==
 
Le pipeline RAG (Retrieval-Augmented Generation) est configuré comme suit :
 
{| class="wikitable"
! Paramètre !! Valeur !! Description
|-
| Chunks max par requête || 10 || Nombre maximum de passages wiki injectés dans le contexte
|-
| Score de pertinence minimum || 0,5 || En dessous de ce seuil, un chunk est ignoré
|-
| Taille d'un chunk || 220 tokens || Taille des blocs de découpe du wiki à l'ingestion
|-
| Chevauchement entre chunks || 40 tokens || Recouvrement entre deux chunks consécutifs pour ne pas perdre le contexte aux jointures
|}


== Mémoire conversationnelle ==
== Mémoire conversationnelle ==


L'historique des sessions est conservé dans une base '''[[PostgreSQL]]''' dédiée. Cela permet à ORIA de maintenir le fil d'une conversation et de répondre à des questions de suivi cohérentes au sein d'une même session.
L'historique des sessions est conservé dans une base '''PostgreSQL''' dédiée. Cela permet à ORIA de maintenir le fil d'une conversation et de répondre à des questions de suivi cohérentes au sein d'une même session.


== Source de connaissance ==
== Source de connaissance ==


ORIA ingère exclusivement le '''[[wiki officiel des Orphelins de l'Apocalypse]]'''. Le wiki est ré-indexé automatiquement toutes les '''24 heures'''. Une ré-indexation manuelle peut être déclenchée par un administrateur si une mise à jour urgente du wiki doit être répercutée immédiatement.
ORIA ingère exclusivement le '''[[Accueil|wiki officiel des Orphelins de l'Apocalypse]]'''. Le wiki est ré-indexé automatiquement toutes les '''24 heures'''. Une ré-indexation manuelle peut être déclenchée par un administrateur si une mise à jour urgente du wiki doit être répercutée immédiatement.


== Pages liées ==
== Pages liées ==


* [[ORIA — L'assistante intelligente des OA]] — présentation générale
* [[ORIA|ORIA — Page centrale]] — présentation générale
* [[ORIA — Fonctionnement]] — architecture RAG et pipeline de traitement
* [[ORIA — Fonctionnement]] — architecture RAG et pipeline de traitement
* [[ORIA — Sur Discord]] — utilisation depuis le canal #🆘-oria
* [[ORIA — Sur Discord]] — utilisation depuis le canal #🆘-oria
[[ORIA|← Retour à ORIA]]


[[Catégorie:ORIA]]
[[Catégorie:ORIA]]
[[Catégorie:Technique]]
[[Catégorie:Administration]]

Dernière version du 13 avril 2026 à 23:45

🤖 ORIA — Assistant IA de la communauté OA

ORIA — Configuration technique

Cette page décrit les technologies embarquées dans ORIA. Elle est destinée aux membres intéressés par le fonctionnement interne du système.

Modèles

Génération de réponses (LLM)

ORIA repose sur un LLM (Large Language Model, ou grand modèle de langage) pour générer ses réponses. Un LLM est un modèle d'intelligence artificielle entraîné sur de grandes quantités de texte, capable de comprendre une question en langage naturel et de rédiger une réponse cohérente.

Le LLM actuellement en production est Qwen 2.5 32B, un modèle open source développé par Alibaba Cloud. Il est servi localement via Ollama, un moteur d'inférence qui permet de faire tourner des LLM sur sa propre infrastructure. Aucun appel à un service cloud externe n'est effectué — le modèle tourne entièrement sur les serveurs des OA.

Embeddings

La recherche dans le wiki repose sur le modèle d'embeddings BGE-M3, également servi via Ollama. Ce modèle transforme les textes (questions et chunks du wiki) en vecteurs numériques qui permettent de mesurer leur similarité sémantique.

Base de données vectorielle

Les chunks du wiki sont indexés dans Qdrant, une base de données vectorielle open source haute performance. C'est elle qui permet à ORIA de retrouver rapidement les passages du wiki les plus pertinents pour répondre à une question donnée.

Mémoire conversationnelle

L'historique des sessions est conservé dans une base PostgreSQL dédiée. Cela permet à ORIA de maintenir le fil d'une conversation et de répondre à des questions de suivi cohérentes au sein d'une même session.

Source de connaissance

ORIA ingère exclusivement le wiki officiel des Orphelins de l'Apocalypse. Le wiki est ré-indexé automatiquement toutes les 24 heures. Une ré-indexation manuelle peut être déclenchée par un administrateur si une mise à jour urgente du wiki doit être répercutée immédiatement.

Pages liées

← Retour à ORIA