Outils pour utilisateurs

Outils du site


informatique:ai_coding

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
Prochaine révision
Révision précédente
informatique:ai_coding [03/12/2025 11:41] – [llama.cpp] chat formats ? cyrilleinformatique:ai_coding [05/12/2025 17:40] (Version actuelle) – [Avec GPU] cyrille
Ligne 223: Ligne 223:
  
 Il faut le compiler avec CUDA. Avec une version >= 11.7 pour [[https://github.com/ggml-org/llama.cpp/issues/11112|compatibilité syntaxe]]. Il faut le compiler avec CUDA. Avec une version >= 11.7 pour [[https://github.com/ggml-org/llama.cpp/issues/11112|compatibilité syntaxe]].
 +
 +  * [[https://github.com/ggml-org/llama.cpp/blob/master/docs/build.md#cuda|Build llama.cpp with CUDA]]
  
 J'ai [[https://linuxcapable.com/how-to-install-cuda-on-debian-linux/|installé CUDA]] le [[https://developer.nvidia.com/blog/updating-the-cuda-linux-gpg-repository-key|dépot Nvidia]] Cuda et cuda toolkit 13 J'ai [[https://linuxcapable.com/how-to-install-cuda-on-debian-linux/|installé CUDA]] le [[https://developer.nvidia.com/blog/updating-the-cuda-linux-gpg-repository-key|dépot Nvidia]] Cuda et cuda toolkit 13
  
 <code> <code>
-$ cat /etc/apt/sources.list.d/nvidia-cuda.list +sudo cat /etc/apt/sources.list.d/cuda-ubuntu2404-x86_64.list 
-deb [signed-by=/usr/share/keyrings/cuda-archive-keyring.gpg] https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/x86_64/ /+deb [signed-by=/usr/share/keyrings/cuda-archive-keyring.gpg] 
 + https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2404/x86_64/ /
 </code> </code>
  
Ligne 236: Ligne 239:
 </code> </code>
  
-puis une très longue compilation avec :+Ensuite une très très longue compilation : 
 + 
 +DCMAKE_CUDA_ARCHITECTURES: ''86'' pour RTX 3060 et ''120'' pour RTX 5060.
  
 <code> <code>
Ligne 242: Ligne 247:
 # RTX 3060 : 86 # RTX 3060 : 86
 # RTX 5060 : 120 # RTX 5060 : 120
-cmake -B build -DGGML_CUDA=ON -DCMAKE_CUDA_ARCHITECTURES="86;120" +cmake -B build -DGGML_CUDA=ON -DCMAKE_CUDA_ARCHITECTURES="86;120" \ 
-cmake --build build --config Release+ -DCMAKE_CUDA_COMPILER=/usr/local/cuda-12.9/bin/nvcc -DCMAKE_INSTALL_RPATH="/usr/local/cuda-12.9/lib64;\$ORIGIN" -DCMAKE_BUILD_WITH_INSTALL_RPATH=ON 
 + 
 +-- ccache found, compilation results will be cached. Disable with GGML_CCACHE=OFF. 
 +-- CMAKE_SYSTEM_PROCESSOR: x86_64 
 +-- GGML_SYSTEM_ARCH: x86 
 +-- Including CPU backend 
 +-- x86 detected 
 +-- Adding CPU backend variant ggml-cpu: -march=native  
 +-- CUDA Toolkit found 
 +-- Using CUDA architectures: 86;120 
 +-- CUDA host compiler is GNU 13.3.0 
 +-- Including CUDA backend 
 +-- ggml version: 0.9.4 
 +-- ggml commit:  6016d0bd4 
 +-- Configuring done (0.5s) 
 +-- Generating done (0.2s) 
 +-- Build files have been written to: /home/cyrille/Code/bronx/AI_Coding/llama.cpp/build 
 + 
 +cmake --build build --config Release 
 + 
 +... 
 +real 44m35,149s 
 +user 42m38,100s 
 +sys 1m51,594s
 </code> </code>
  
informatique/ai_coding.1764758487.txt.gz · Dernière modification : de cyrille

Sauf mention contraire, le contenu de ce wiki est placé sous les termes de la licence suivante : CC0 1.0 Universal
CC0 1.0 Universal Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki