informatique:ai_lm:ai_nlp_rag
Différences
Ci-dessous, les différences entre deux révisions de la page.
| Les deux révisions précédentesRévision précédenteProchaine révision | Révision précédente | ||
| informatique:ai_lm:ai_nlp_rag [21/04/2026 08:58] – supprimée - modification externe (Date inconnue) 127.0.0.1 | informatique:ai_lm:ai_nlp_rag [21/04/2026 09:41] (Version actuelle) – [AI NLP and RAG] cyrille | ||
|---|---|---|---|
| Ligne 1: | Ligne 1: | ||
| + | ====== AI NLP and RAG ====== | ||
| + | |||
| + | * NLP: Natural Language Processing, Traitement automatique du langage naturel | ||
| + | * RAG: Retrieval-Augmented Generation, récupération d’informations et génération de texte | ||
| + | |||
| + | Voir aussi: [[/ | ||
| + | |||
| + | Outils RAG: | ||
| + | * https:// | ||
| + | * [[https:// | ||
| + | * Langchain integration as a [[https:// | ||
| + | * [[https:// | ||
| + | * One of the easiest ways to use ColBERT in applications nowadays is the semi-official, | ||
| + | |||
| + | La reconnaissance d’entités (NER), également appelée segmentation d’entités ou extraction d’entités, | ||
| + | |||
| + | * [[https:// | ||
| + | * [[https:// | ||
| + | |||
| + | Les étapes | ||
| + | * Tokenisation | ||
| + | * décompose un texte en unités plus petites, appelées tokens. Ces tokens peuvent être des mots, des signes de ponctuation ou d' | ||
| + | * Marquage de parties du discours (POS) | ||
| + | * marquage des parties du discours. Cela attribue aux tokens des types de mots grammaticaux, | ||
| + | * Détection d' | ||
| + | * vise à reconnaître et à classer des entités nommées telles que des personnes, des lieux, des organisations et d' | ||
| + | |||
| + | ==== Glossaire ==== | ||
| + | |||
| + | * STS Semantic Textual Similarity: | ||
| + | * Embedding: fixed-size vector representation | ||
| + | * Cross Encoder (a.k.a reranker): Calculates a similarity score given pairs of texts. Generally provides superior performance compared to a Sentence Transformer (a.k.a. bi-encoder) model. | ||
| + | * Sparse Encoder : sparse vector representations is a list of '' | ||
| + | * RAG (Retrieval-Augmented Generation): | ||
| + | |||
| + | ===== Models embedding ===== | ||
| + | |||
| + | * [[https:// | ||
| + | |||
| + | ===== Sentence Transformers ===== | ||
| + | |||
| + | https:// | ||
| + | |||
| + | used to compute embeddings using Sentence Transformer models ([[https:// | ||
| + | |||
| + | ===== Vectors databases ===== | ||
| + | |||
| + | {{ : | ||
| + | * FAISS Facebook AI Similarity Search, optimisé pour la recherche de similarité | ||
| + | * [[https:// | ||
| + | * [[https:// | ||
| + | |||
| + | Solutions plus évoluées en SaaS | ||
| + | * [[https:// | ||
| + | * [[https:// | ||
| + | * Weaviate is an open-source vector database that stores both objects and vectors, allowing for the combination of vector search with structured filtering with the fault tolerance and scalability of a cloud-native database. | ||
| + | * https:// | ||
| + | * https:// | ||
| + | |||
| + | ==== ChromaDB ==== | ||
| + | |||
| + | * [[https:// | ||
| + | * [[https:// | ||
| + | * [[https:// | ||
| + | * [[https:// | ||
| + | |||
| + | Client Api | ||
| + | * Php https:// | ||
| + | |||
| + | ==== Wikidata ==== | ||
| + | |||
| + | Utiliser 2 méthodes différentes pour | ||
| + | * Pour extraire les labels, aliases et déclarations (claims) | ||
| + | * Pour extraire le graph des P31/P279 | ||
| + | permet d' | ||
| + | |||
| + | === Wikidata Dumps === | ||
| + | |||
| + | Il y a des dumps Wikidata (préférer un mirroir pour être sympa). | ||
| + | |||
| + | Dump Json, streamable (GZ) : | ||
| + | * https:// | ||
| + | * 151 Go, plus de '' | ||
| + | |||
| + | Dump RDF N-Triples (brut), streamable (GZ) : | ||
| + | * https:// | ||
| + | * 246 Go | ||
| + | |||
| + | Dump RDF N-Triples (brut), streamable (GZ) ET nettoyé des '' | ||
| + | * https:// | ||
| + | * 69.6 Go 👌 pour '' | ||
| + | |||
| + | Lectures: | ||
| + | * PDF [[https:// | ||
| + | |||
| + | Query services: | ||
| + | * Original https:// | ||
| + | * The graph was split in two some time ago. The scholarly articles must be queried on https:// | ||
| + | * QLever démo https:// | ||
