Outils pour utilisateurs

Outils du site


informatique:ai_coding:gpu_bench

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
Prochaine révision
Révision précédente
informatique:ai_coding:gpu_bench [03/12/2025 07:54] – [GPU Bench] cyrilleinformatique:ai_coding:gpu_bench [03/12/2025 07:56] (Version actuelle) – [EuroLLM-9B-Instruct-Q4_0] cyrille
Ligne 75: Ligne 75:
 </code> </code>
  
-=== Qwen2.5-coder-7b-instruct-q8_0 === 
- 
-<code> 
-./build/bin/llama-bench -m ~/Data/AI_Models/Qwen2.5-coder-7b-instruct-q8_0.gguf -p 0 -n 128,256,512 
-ggml_cuda_init: GGML_CUDA_FORCE_MMQ:    no 
-ggml_cuda_init: GGML_CUDA_FORCE_CUBLAS: no 
-ggml_cuda_init: found 1 CUDA devices: 
-  Device 0: NVIDIA GeForce RTX 3060, compute capability 8.6, VMM: yes 
-| model                          |       size |     params | backend    | ngl |            test |                  t/s | 
-| ------------------------------ | ---------: | ---------: | ---------- | --: | --------------: | -------------------: | 
-| qwen2 7B Q8_0                  |   7.54 GiB |     7.62 B | CUDA        99 |           tg128 |         41.42 ± 0.00 | 
-| qwen2 7B Q8_0                  |   7.54 GiB |     7.62 B | CUDA        99 |           tg256 |         41.38 ± 0.05 | 
-| qwen2 7B Q8_0                  |   7.54 GiB |     7.62 B | CUDA        99 |           tg512 |         40.70 ± 0.01 | 
-</code> 
- 
-=== EuroLLM-9B-Instruct-Q4_0 === 
- 
-<code> 
-./build/bin/llama-bench -m ~/Data/AI_Models/EuroLLM-9B-Instruct-Q4_0.gguf -p 0 -n 128,256,512 
-ggml_cuda_init: GGML_CUDA_FORCE_MMQ:    no 
-ggml_cuda_init: GGML_CUDA_FORCE_CUBLAS: no 
-ggml_cuda_init: found 1 CUDA devices: 
-  Device 0: NVIDIA GeForce RTX 3060, compute capability 8.6, VMM: yes 
-| model                          |       size |     params | backend    | ngl |            test |                  t/s | 
-| ------------------------------ | ---------: | ---------: | ---------- | --: | --------------: | -------------------: | 
-| llama ?B Q4_0                  |   4.94 GiB |     9.15 B | CUDA        99 |           tg128 |         56.06 ± 0.01 | 
-| llama ?B Q4_0                  |   4.94 GiB |     9.15 B | CUDA        99 |           tg256 |         55.96 ± 0.02 | 
-| llama ?B Q4_0                  |   4.94 GiB |     9.15 B | CUDA        99 |           tg512 |         53.87 ± 0.03 | 
-</code> 
  
  
Ligne 125: Ligne 96:
 </code> </code>
  
-=== Qwen2.5-coder-7b-instruct-q8_0 === 
  
-<code> 
-$ ~/Code/bronx/AI_Coding/llama.cpp/build/bin/llama-bench -m ~/Data/AI_Models/Qwen2.5-coder-7b-instruct-q8_0.gguf -p 0 -n 128,256,512 
-ggml_cuda_init: GGML_CUDA_FORCE_MMQ:    no 
-ggml_cuda_init: GGML_CUDA_FORCE_CUBLAS: no 
-ggml_cuda_init: found 1 CUDA devices: 
-  Device 0: NVIDIA GeForce RTX 5060 Ti, compute capability 12.0, VMM: yes 
-| model                          |       size |     params | backend    | ngl |            test |                  t/s | 
-| ------------------------------ | ---------: | ---------: | ---------- | --: | --------------: | -------------------: | 
-| qwen2 7B Q8_0                  |   7.54 GiB |     7.62 B | CUDA        99 |           tg128 |         50.33 ± 0.01 | 
-| qwen2 7B Q8_0                  |   7.54 GiB |     7.62 B | CUDA        99 |           tg256 |         50.33 ± 0.01 | 
-| qwen2 7B Q8_0                  |   7.54 GiB |     7.62 B | CUDA        99 |           tg512 |         49.62 ± 0.02 | 
  
-build: 3f3a4fb9c (7130) 
-</code> 
  
-=== EuroLLM-9B-Instruct-Q4_0 === 
- 
-<code> 
-$ ./llama.cpp/build/bin/llama-bench -m ~/Data/AI_Models/EuroLLM-9B-Instruct-Q4_0.gguf -p 0 -n 128,256,512 
-ggml_cuda_init: GGML_CUDA_FORCE_MMQ:    no 
-ggml_cuda_init: GGML_CUDA_FORCE_CUBLAS: no 
-ggml_cuda_init: found 1 CUDA devices: 
-  Device 0: NVIDIA GeForce RTX 5060 Ti, compute capability 12.0, VMM: yes 
-| model                          |       size |     params | backend    | ngl |            test |                  t/s | 
-| ------------------------------ | ---------: | ---------: | ---------- | --: | --------------: | -------------------: | 
-| llama ?B Q4_0                  |   4.94 GiB |     9.15 B | CUDA        99 |           tg128 |         71.41 ± 0.05 | 
-| llama ?B Q4_0                  |   4.94 GiB |     9.15 B | CUDA        99 |           tg256 |         71.15 ± 0.60 | 
-| llama ?B Q4_0                  |   4.94 GiB |     9.15 B | CUDA        99 |           tg512 |         69.45 ± 0.08 | 
- 
-build: 3f3a4fb9c (7130) 
-</code> 
  
 ===== Traduction ===== ===== Traduction =====
informatique/ai_coding/gpu_bench.1764744877.txt.gz · Dernière modification : de cyrille

Sauf mention contraire, le contenu de ce wiki est placé sous les termes de la licence suivante : CC0 1.0 Universal
CC0 1.0 Universal Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki