Outils pour utilisateurs

Outils du site


informatique:ai_lm:ai_coding

Ceci est une ancienne révision du document !


AI Coding

Coder avec une IA LLM.

Autres pages:

Sur les Agents

  • LangChain: un framework open-source conçu pour faciliter la création d’applications alimentées par des modèles de langage (comme GPT, Llama, etc.). Il permet de combiner des LLMs avec d’autres sources de données, outils externes, ou encore des bases de connaissances, pour construire des workflows complexes.
  • LLPhant : A comprehensive PHP Generative AI Framework, inspired by Langchain, sur lequel est construit AutoPHP an agent PHP framework. Avec notamment présentation et usage de vectorstores et embeddings
  • LangSmith: une plateforme de débogage, de test et de monitoring pour les applications construites avec LangChain ou d’autres frameworks similaires
  • LangGraph: une extension de LangChain qui permet de modéliser des workflows d’IA sous forme de graphes. Contrairement à LangChain, qui utilise des chaînes linéaires ou séquentielles, LangGraph permet de créer des processus dynamiques et non linéaires, où les étapes peuvent s’enchaîner de manière conditionnelle ou parallèle.
  • STM (Short Term Memory): permet à un agent IA de se souvenir des entrées récente. Généralement mise en œuvre à l’aide d’une mémoire tampon circulaire ou d’une fenêtre contextuelle (context window), qui contient une quantité limitée de données récentes avant d’être écrasée.
  • LTM (Long Term Memory): permet aux agents IA de stocker et de récupérer des informations entre différentes sessions. souvent mise en œuvre à l’aide de bases de données, de graphes de connaissances ou d’embeddings vectoriels.
    • RAG (Retrieval-Augmented Generation): combine deux capacités de l’IA : la récupération d’informations et la génération de texte.
  • ACP (Agent Communication Protocol): transformeles agents d’IA en coéquipiers interconnectés.
  • MCP (Model Context Protocol): une couche de standardisation pour permettre aux applications d’IA de communiquer efficacement avec des services externes tels que des outils, des bases de données et des modèles prédéfinis.

Models

Il en faut des tokens pour un petit programme

Pour de l'assistance au code

GGUF Models Metadata Viewer : Un viewer des meta-données des modèles que j'essaye en local réalisé sans coder, juste assistant IA et “OpenCode Zen Big Pickle” et “Mistral Devstral 2”.

      • layers=37, n_ctx_train=40960
      • avec 12Go --ctx-size 0
    • Qwen2.5-coder-7b-instruct-q8_0.gguf
      • file: 8.1 Go, n_ctx=131072
      • avec RTX 5060 16Go --ctx-size 0, nvidia-smi Memory-Usage 14920MiB / 16311MiB
      • default context 40960, 37 layers
      • avec 12Go --ctx-size 0
      • default context 40960, 40 layers
      • avec 12Go --ctx-size 0 --n-gpu-layers 28
      • layers=48, n_ctx_train=262144, n_embd=2048, n_rot=128, n_expert=128, n_expert_used=8, n_vocab=151936, n_merges=151387, max token length=256
      • avec 12Go --ctx-size 70000 --n-gpu-layers 23
      • avec 12Go --ctx-size 40000 --n-gpu-layers 26
  • DeepSeek2
      • layers=28, n_ctx_train=163840, n_ctx_orig_yarn=4096, n_embd=2048, n_rot=64, rope scaling=yarn
      • avec 12Go --ctx-size 30000 --n-gpu-layers 15
      • default context 16384, 32 layers
      • avec 12 Go --ctx-size 0 --n-gpu-layers 30
      • context trop petit pour projet code
  • Google DeepMind Gemma
  • Meta
      • Cutting Knowledge Date: December 2023
      • layers=33, n_ctx_train=131072
      • Avec 12 Go
        • llama-cli --ctx-size 55000
        • llama-server --ctx-size 50000
        • --ctx-size 65000 --n-gpu-layers 29
      • layers=33, n_ctx_train=8192
      • file: 7.9 Go
      • layers=40, n_ctx_train=16384, n_embd=5120, n_rot=128, n_expert=0, n_merges=0, max token length=48, n_vocab=32016
      • --ctx-size 0 --n-gpu-layers 22
      • RTX 5060 16Go
        • --ctx-size 0, ggml_backend_cuda_buffer_type_alloc_buffer: allocating 12800.00 MiB on device 0: cudaMalloc failed: out of memory
        • --ctx-size 0 -n-gpu-layers 30, model loaded
      • context trop petit pour projet code
      • layers=40, n_ctx_train=16384
      • context trop petit pour projet code
  • Mistral
  • VibeThinker-1.5B (Weibo)
  • OpenAI
  • IBM
      • layer=40, n_ctx=1048576 (1M !), model type=1B, model params=6.94 B, n_embd=1536, n_merges=100000, max token length=256, n_rot=128, n_expert=64, n_expert_used=6
      • RTX 3060 12 Go
        • --ctx-size 500000, model loaded, nvidia-smi Memory-Usage 9766MiB/12288MiB
    • Granite 2.0 Code Model granite-8b-code-instruct-128k
    • granite-8b-code-instruct-128k-Q5_K_M.gguf
      • file=5.7 Go, n_ctx=128000, n_layer=36
      • RTX 5060 16 Go
        • --ctx-size 0, model loading error: ggml_backend_cuda_buffer_type_alloc_buffer: allocating 18000.00 MiB on device 0: cudaMalloc failed: out of memory, alloc_tensor_range: failed to allocate CUDA0 buffer of size 18874368000
        • --ctx-size 70000, model loaded, nvidia-smi Memory-Usage 15710MiB/16311MiB
    • granite-8b-code-instruct-128k-Q4_K_M.gguf
      • file=4.9 Go, n_ctx=128000, n_layer=36
      • RTX 5060 16 Go
        • --ctx-size 0, model loading error: ggml_backend_cuda_buffer_type_alloc_buffer: allocating 18000.00 MiB on device 0: cudaMalloc failed: out of memory, alloc_tensor_range: failed to allocate CUDA0 buffer of size 18874368000
        • --ctx-size 70000, model loaded, nvidia-smi Memory-Usage 14910MiB/16311MiB
      • RTX 3060 12 Go
        • --ctx-size 44000, model loaded, nvidia-smi Memory-Usage 11136MiB/12288MiB

Plan de test de comparaison par LeChat de Mistral:

API service

Mistral

    • codestral-2508, Our cutting-edge language model for coding released August 2025.
      • max_context_length=256000, default_model_temperature=0.3
      • capabilities: completion_chat, function_calling, completion_fim, fine_tuning, vision, ocr, classification, moderation, audio
    • devstral-2512, Official mistral-vibe-cli-latest Mistral AI model
      • max_context_length=262144, default_model_temperature=0.2
      • capabilities: completion_chat, function_calling, completion_fim, fine_tuning, vision, ocr, classification, moderation, audio

Autres usages

Coding assistant

Agentic Capabilities LLMs.

Listes d'agents

La concurrence est rude entre les entreprises et startups de l’IA. Dernier terrain de bataille, les agents dédiés au développement web et à la programmation. Google, avec Jules ; OpenAI, avec Codex ; GitHub, avec Copilot ; Anthropic, avec Claude Code, sans oublier les outils comme Lovable. Au tour maintenant du Français Mistral de proposer un « assistant de programmation propulsé par l’IA ». Mais de quoi s’agit-il exactement ?
Mistral Code, un nouvel agent IA pour automatiser le développement logiciel

continue

Claude code

Synoptia THÉRÈSE Cli

THÉRÈSE (Terminal Helper for Engineering, Research, Editing, Software & Execution) est un assistant de code en ligne de commande, 100% français, inspiré de Claude Code mais propulsé par Mistral AI.

https://github.com/ludovicsanchez38-creator/Synoptia-THERESE-CLI

Shai

shai is a coding agent, your pair programming buddy that lives in the terminal. Written in rust with love <3 at OVH.

https://github.com/ovh/shai

opencode

Les prompts system:

Modèles conseillés :

  • GPT 5.1
  • GPT 5.1 Codex
  • Claude Sonnet 4.5
  • Claude Haiku 4.5
  • Kimi K2
  • GLM 4.6
  • Qwen3 Coder
  • Gemini 3 Pro

Plus de choses OpenCode

Essais de models

opencode models liste les modèles disponibles sur les providers configurés. Bien pratique pour trouver le nom à mettre dans la config.

Modèles on-line essayés avec opencode.

  • Big Pickle (opencode zen) : résultats impressionants ! Un vrai super assistant
  • Codestral (mistral free)
  • Qwen3-Coder-30B-A3B-Instruct (ovhcloud) : ça fonctionne mais juste le minimum
  • OvhCloud pas stable 😩
    • mistral-nemo-instruct-2407 (ovhcloud) : Pas de réponse
    • Mixtral-8x7B-Instruct-v0.1 (ovhcloud) : Bad request
    • Llama-3.1-8B-Instruct (ovhcloud) : Failed with “First, let me check the opencode documentation to see if there's any information about …”
    • Meta-Llama-3_3-70B-Instruct (ovhcloud) : Failed with “Unknown agent type: greeting-responder is not a valid agent type”
  • GemmaCoder3-12B
    • erreur format de conversation : “Conversation roles must alternate user/assistant/user…”

cline

codex-cli

Cursor

Par Anysphere Inc

https://cursor.com/pricing

Tabby

Gemini CLI

LLxprt Code

Windsurf / Codeium

Amp Free

Tabnine

Mistral Vibe

MCP server

Les serveurs MCP sont des programmes qui exposent des capacités spécifiques aux applications d'IA via des interfaces de protocole standardisées. Parmi les exemples courants, on peut citer les serveurs de systèmes de fichiers pour l'accès aux documents, les serveurs de bases de données pour les requêtes de données, les serveurs GitHub pour la gestion du code, les serveurs Slack pour la communication entre équipes et les serveurs de calendrier pour la planification.

3 typologies:

  • Tools
  • Resources
  • Prompts

Articles:

Curated lists:

Demo MCP Server

A collection of reference implementations for the Model Context Protocol (MCP), as well as references to community-built servers and additional resources.

  • Everything - Reference / test server with prompts, resources, and tools.
  • Fetch - Web content fetching and conversion for efficient LLM usage.
  • Filesystem - Secure file operations with configurable access controls.
  • Git - Tools to read, search, and manipulate Git repositories.
  • Memory - Knowledge graph-based persistent memory system.
  • Sequential Thinking - Dynamic and reflective problem-solving through thought sequences.
  • Time - Time and timezone conversion capabilities.

Serena

goose

A local, extensible, open source AI agent that automates engineering tasks.

Apify MCP

Apify Actors scrape up-to-date web data from any website for AI apps and agents, social media monitoring, competitive intelligence, lead generation, and product research. Crawl website to feed AI

arabold/docs-mcp-server

https://grounded.tools/ https://github.com/arabold/docs-mcp-server

Index 3rd party documentation from websites, GitHub, npm, PyPI, and local files. Provide your AI with version-aware search tools via the Model Context Protocol. The open-source alternative to Context7, Nia, and Ref.Tools.

context7

laravel boost

Dédié Php Laravel: https://laravel.com/ai/boost

Chrome DevTools MCP

https://github.com/ChromeDevTools/chrome-devtools-mcp/

chrome-devtools-mcp permet à votre agent de codage (tel que Gemini, Claude, Cursor ou Copilot) de contrôler et d'inspecter un navigateur Chrome en direct. Il agit comme un serveur MCP (Model-Context-Protocol), donnant à votre assistant de codage IA accès à toute la puissance de Chrome DevTools pour une automatisation fiable, un débogage approfondi et une analyse des performances.

Puppeteer MCP

https://github.com/modelcontextprotocol/servers-archived/tree/main/src/puppeteer

A Model Context Protocol server that provides browser automation capabilities using Puppeteer. This server enables LLMs to interact with web pages, take screenshots, and execute JavaScript in a real browser environment.

puppeteer_navigate, puppeteer_screenshot, puppeteer_click, puppeteer_hover, puppeteer_fill, puppeteer_select, puppeteer_evaluate

MySql/MariaDb MCP

Frameworks

/modelcontextprotocol/php-sdk

LSP Server

LLM Gateway

{
  "fallbacks": {
    "enabled": true,
    "order": [
      "openai/gpt-4o-mini",
      "anthropic/claude-sonnet-4",
      "mistral/mistral-large-latest"
    ]
  }
}

system message

Le “prompt système” est un élément essentiel : c'est la feuille de route pour le modèle, en définissant son comportement, ses limites, et même sa “personnalité”. Son efficacité dépend de sa formulation et des spécificités du modèle.

Agents IA

  • Agents réflexes simples / simple reflex agent
  • Agents basés sur des modèles / model based agent
  • Agents basés sur des objectifs / goal based agent
  • Agents basés sur l'utilité / utility based agent
  • Agents d'apprentissage / learning agent
  • Agents hiérarchiques / hierarchical agent

Frameworks

LLPhant

PrismPhp

A unified interface for working with LLMs in Laravel.

informatique/ai_lm/ai_coding.1769618435.txt.gz · Dernière modification : de cyrille

Sauf mention contraire, le contenu de ce wiki est placé sous les termes de la licence suivante : CC0 1.0 Universal
CC0 1.0 Universal Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki