informatique:ai_coding
Différences
Ci-dessous, les différences entre deux révisions de la page.
| Les deux révisions précédentesRévision précédenteProchaine révision | Révision précédente | ||
| informatique:ai_coding [30/11/2025 10:58] – [AI Coding] cyrille | informatique:ai_coding [05/12/2025 17:40] (Version actuelle) – [Avec GPU] cyrille | ||
|---|---|---|---|
| Ligne 9: | Ligne 9: | ||
| Autres pages: | Autres pages: | ||
| * [[/ | * [[/ | ||
| + | * Un peu de [[/ | ||
| * Pour d' | * Pour d' | ||
| ===== Sur les perfs ===== | ===== Sur les perfs ===== | ||
| Ligne 188: | Ligne 189: | ||
| * [[https:// | * [[https:// | ||
| * https:// | * https:// | ||
| + | * [[https:// | ||
| + | * [[https:// | ||
| * [[https:// | * [[https:// | ||
| * un modèle open source taillé pour la Deep Research et capable de battre des géants du retrieval avec seulement 150 millions de paramètres. L’entraînement complet ne prend que deux heures et moins de 100 lignes de code, ouvrant la voie à un fine-tuning rapide sur des corpus privés | * un modèle open source taillé pour la Deep Research et capable de battre des géants du retrieval avec seulement 150 millions de paramètres. L’entraînement complet ne prend que deux heures et moins de 100 lignes de code, ouvrant la voie à un fine-tuning rapide sur des corpus privés | ||
| Ligne 200: | Ligne 203: | ||
| <code bash> | <code bash> | ||
| ./ | ./ | ||
| + | |||
| + | ~/ | ||
| </ | </ | ||
| - | Models: | + | Quid des chat formats ? Est-ce lié au modèle ? |
| + | * '' | ||
| + | * '' | ||
| + | |||
| + | Modèles: | ||
| * Les models au format GGUF, en fichier ou url sur [[https:// | * Les models au format GGUF, en fichier ou url sur [[https:// | ||
| * [[https:// | * [[https:// | ||
| Ligne 214: | Ligne 223: | ||
| Il faut le compiler avec CUDA. Avec une version >= 11.7 pour [[https:// | Il faut le compiler avec CUDA. Avec une version >= 11.7 pour [[https:// | ||
| + | |||
| + | * [[https:// | ||
| J'ai [[https:// | J'ai [[https:// | ||
| < | < | ||
| - | $ cat / | + | $ sudo cat / |
| - | deb [signed-by=/ | + | deb [signed-by=/ |
| + | https:// | ||
| </ | </ | ||
| Ligne 227: | Ligne 239: | ||
| </ | </ | ||
| - | puis une très longue compilation | + | Ensuite |
| + | |||
| + | DCMAKE_CUDA_ARCHITECTURES: | ||
| < | < | ||
| Ligne 233: | Ligne 247: | ||
| # RTX 3060 : 86 | # RTX 3060 : 86 | ||
| # RTX 5060 : 120 | # RTX 5060 : 120 | ||
| - | cmake -B build -DGGML_CUDA=ON -DCMAKE_CUDA_ARCHITECTURES=" | + | $ cmake -B build -DGGML_CUDA=ON -DCMAKE_CUDA_ARCHITECTURES=" |
| - | cmake --build build --config Release | + | -DCMAKE_CUDA_COMPILER=/ |
| + | |||
| + | -- ccache found, compilation results will be cached. Disable with GGML_CCACHE=OFF. | ||
| + | -- CMAKE_SYSTEM_PROCESSOR: | ||
| + | -- GGML_SYSTEM_ARCH: | ||
| + | -- Including CPU backend | ||
| + | -- x86 detected | ||
| + | -- Adding CPU backend variant ggml-cpu: -march=native | ||
| + | -- CUDA Toolkit found | ||
| + | -- Using CUDA architectures: | ||
| + | -- CUDA host compiler is GNU 13.3.0 | ||
| + | -- Including CUDA backend | ||
| + | -- ggml version: 0.9.4 | ||
| + | -- ggml commit: | ||
| + | -- Configuring done (0.5s) | ||
| + | -- Generating done (0.2s) | ||
| + | -- Build files have been written to: / | ||
| + | |||
| + | $ cmake --build build --config Release | ||
| + | |||
| + | ... | ||
| + | real 44m35, | ||
| + | user 42m38, | ||
| + | sys 1m51, | ||
| </ | </ | ||
informatique/ai_coding.1764496723.txt.gz · Dernière modification : de cyrille
