Outils pour utilisateurs

Outils du site


informatique:ai_coding

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
Prochaine révision
Révision précédente
informatique:ai_coding [30/11/2025 10:57] – [AI Coding] cyrilleinformatique:ai_coding [05/12/2025 17:40] (Version actuelle) – [Avec GPU] cyrille
Ligne 9: Ligne 9:
 Autres pages: Autres pages:
   * [[/informatique/ai_coding/samples|Quelques essais perso]]   * [[/informatique/ai_coding/samples|Quelques essais perso]]
 +  * Un peu de [[/informatique/ai_coding/gpu_bench|GPU bench]] 
 +  * Pour d'[[#autres_usages|Autres usages]] que la programmation informatique (codage)
 ===== Sur les perfs ===== ===== Sur les perfs =====
  
Ligne 185: Ligne 186:
     * [[https://huggingface.co/OpenLLM-France/Lucie-7B-Instruct-human-data|Model Card for Lucie-7B-Instruct-human-data]]     * [[https://huggingface.co/OpenLLM-France/Lucie-7B-Instruct-human-data|Model Card for Lucie-7B-Instruct-human-data]]
   * [[https://eurollm.io/|EuroLLM, Large language model made in Europe built to support all official 24 EU languages]]   * [[https://eurollm.io/|EuroLLM, Large language model made in Europe built to support all official 24 EU languages]]
 +    * [[https://korben.info/eurollm-llm-europeen-local-ollama-laptop.html|EuroLLM - Le LLM européen qui tourne sur votre laptop]] 
 +      * [[https://huggingface.co/utter-project/EuroLLM-9B|huggingface/utter-project/EuroLLM-9B]] 
 +        * https://huggingface.co/bartowski/EuroLLM-9B-Instruct-GGUF 
 +  * [[https://github.com/bofenghuang/vigogne/blob/main/docs/model.md|Vigogne]] modèles réentrainer en français (//2023//
 +    * [[https://github.com/bofenghuang/vigogne/blob/main/blogs/2023-08-17-vigogne-chat-v2_0.md|Voilà Voilà: Unleashing Vigogne Chat V2.0]] 
 +  * [[https://www.channelnews.fr/avec-son-moteur-ia-ultra-leger-et-ultra-puissant-lighton-rend-la-deep-research-accessible-et-souveraine-148246|LightOn dévoile Reason-ModernColBERT]] 
 +    * un modèle open source taillé pour la Deep Research et capable de battre des géants du retrieval avec seulement 150 millions de paramètres. L’entraînement complet ne prend que deux heures et moins de 100 lignes de code, ouvrant la voie à un fine-tuning rapide sur des corpus privés
  
 ===== Models servers ===== ===== Models servers =====
Ligne 196: Ligne 203:
 <code bash> <code bash>
 ./bin/llama-server -m devstralQ5_K_M.gguf --port 8012 --jinja --ctx-size 20000 ./bin/llama-server -m devstralQ5_K_M.gguf --port 8012 --jinja --ctx-size 20000
 +
 +~/Code/bronx/AI_Coding/llama.cpp/build/bin/llama-server --port 8012 --chatml -m ~/Data/AI_Models/Qwen2.5-coder-7b-instruct-q8_0.gguf --ctx-size 48000
 </code> </code>
  
-Models:+Quid des chat formats ? Est-ce lié au modèle ? 
 +  * ''--jinja'' 
 +  * ''--chatml'' 
 + 
 +Modèles:
   * Les models au format GGUF, en fichier ou url sur [[https://huggingface.co/|Hugging Face]], [[https://modelscope.cn/|ModelScope]]   * Les models au format GGUF, en fichier ou url sur [[https://huggingface.co/|Hugging Face]], [[https://modelscope.cn/|ModelScope]]
   * [[https://github.com/ggml-org/llama.cpp#obtaining-and-quantizing-models|Obtaining and quantizing models]]   * [[https://github.com/ggml-org/llama.cpp#obtaining-and-quantizing-models|Obtaining and quantizing models]]
Ligne 210: Ligne 223:
  
 Il faut le compiler avec CUDA. Avec une version >= 11.7 pour [[https://github.com/ggml-org/llama.cpp/issues/11112|compatibilité syntaxe]]. Il faut le compiler avec CUDA. Avec une version >= 11.7 pour [[https://github.com/ggml-org/llama.cpp/issues/11112|compatibilité syntaxe]].
 +
 +  * [[https://github.com/ggml-org/llama.cpp/blob/master/docs/build.md#cuda|Build llama.cpp with CUDA]]
  
 J'ai [[https://linuxcapable.com/how-to-install-cuda-on-debian-linux/|installé CUDA]] le [[https://developer.nvidia.com/blog/updating-the-cuda-linux-gpg-repository-key|dépot Nvidia]] Cuda et cuda toolkit 13 J'ai [[https://linuxcapable.com/how-to-install-cuda-on-debian-linux/|installé CUDA]] le [[https://developer.nvidia.com/blog/updating-the-cuda-linux-gpg-repository-key|dépot Nvidia]] Cuda et cuda toolkit 13
  
 <code> <code>
-$ cat /etc/apt/sources.list.d/nvidia-cuda.list +sudo cat /etc/apt/sources.list.d/cuda-ubuntu2404-x86_64.list 
-deb [signed-by=/usr/share/keyrings/cuda-archive-keyring.gpg] https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/x86_64/ /+deb [signed-by=/usr/share/keyrings/cuda-archive-keyring.gpg] 
 + https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2404/x86_64/ /
 </code> </code>
  
Ligne 223: Ligne 239:
 </code> </code>
  
-puis une très longue compilation avec :+Ensuite une très très longue compilation : 
 + 
 +DCMAKE_CUDA_ARCHITECTURES: ''86'' pour RTX 3060 et ''120'' pour RTX 5060.
  
 <code> <code>
Ligne 229: Ligne 247:
 # RTX 3060 : 86 # RTX 3060 : 86
 # RTX 5060 : 120 # RTX 5060 : 120
-cmake -B build -DGGML_CUDA=ON -DCMAKE_CUDA_ARCHITECTURES="86;120" +cmake -B build -DGGML_CUDA=ON -DCMAKE_CUDA_ARCHITECTURES="86;120" \ 
-cmake --build build --config Release+ -DCMAKE_CUDA_COMPILER=/usr/local/cuda-12.9/bin/nvcc -DCMAKE_INSTALL_RPATH="/usr/local/cuda-12.9/lib64;\$ORIGIN" -DCMAKE_BUILD_WITH_INSTALL_RPATH=ON 
 + 
 +-- ccache found, compilation results will be cached. Disable with GGML_CCACHE=OFF. 
 +-- CMAKE_SYSTEM_PROCESSOR: x86_64 
 +-- GGML_SYSTEM_ARCH: x86 
 +-- Including CPU backend 
 +-- x86 detected 
 +-- Adding CPU backend variant ggml-cpu: -march=native  
 +-- CUDA Toolkit found 
 +-- Using CUDA architectures: 86;120 
 +-- CUDA host compiler is GNU 13.3.0 
 +-- Including CUDA backend 
 +-- ggml version: 0.9.4 
 +-- ggml commit:  6016d0bd4 
 +-- Configuring done (0.5s) 
 +-- Generating done (0.2s) 
 +-- Build files have been written to: /home/cyrille/Code/bronx/AI_Coding/llama.cpp/build 
 + 
 +cmake --build build --config Release 
 + 
 +... 
 +real 44m35,149s 
 +user 42m38,100s 
 +sys 1m51,594s
 </code> </code>
  
informatique/ai_coding.1764496621.txt.gz · Dernière modification : de cyrille

Sauf mention contraire, le contenu de ce wiki est placé sous les termes de la licence suivante : CC0 1.0 Universal
CC0 1.0 Universal Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki