Coder avec une IA LLM.
Autres pages:
Pour de l'assistance au code
GGUF Models Metadata Viewer : Un viewer des meta-données des modèles que j'essaye en local réalisé sans coder, juste assistant IA et “OpenCode Zen Big Pickle” et “Mistral Devstral 2”.
--ctx-size 0--ctx-size 0, nvidia-smi Memory-Usage 14920MiB / 16311MiB--ctx-size 0--ctx-size 0 --n-gpu-layers 28--ctx-size 70000 --n-gpu-layers 23--ctx-size 40000 --n-gpu-layers 26--ctx-size 30000 --n-gpu-layers 15--ctx-size 0 --n-gpu-layers 30--ctx-size 42000--ctx-size 70000 --n-gpu-layers 41--ctx-size 0, ggml_backend_cuda_buffer_type_alloc_buffer: allocating 1440.00 MiB on device 0: cudaMalloc failed: out of memory, alloc_tensor_range: failed to allocate CUDA0 buffer of size 1509949440--ctx-size 0 --n-gpu-layers 42, model loaded--ctx-size 70000, model loaded, nvidia-smi Memory-Usage: 13060MiB / 16311MiB--ctx-size 55000 --ctx-size 50000 --ctx-size 65000 --n-gpu-layers 29 --ctx-size 0 --n-gpu-layers 22--ctx-size 0, ggml_backend_cuda_buffer_type_alloc_buffer: allocating 12800.00 MiB on device 0: cudaMalloc failed: out of memory--ctx-size 0 -n-gpu-layers 30, model loaded--ctx-size 500000, model loaded, nvidia-smi Memory-Usage 9766MiB/12288MiB--ctx-size 0, model loading error: ggml_backend_cuda_buffer_type_alloc_buffer: allocating 18000.00 MiB on device 0: cudaMalloc failed: out of memory, alloc_tensor_range: failed to allocate CUDA0 buffer of size 18874368000--ctx-size 70000, model loaded, nvidia-smi Memory-Usage 15710MiB/16311MiB--ctx-size 0, model loading error: ggml_backend_cuda_buffer_type_alloc_buffer: allocating 18000.00 MiB on device 0: cudaMalloc failed: out of memory, alloc_tensor_range: failed to allocate CUDA0 buffer of size 18874368000--ctx-size 70000, model loaded, nvidia-smi Memory-Usage 14910MiB/16311MiB--ctx-size 44000, model loaded, nvidia-smi Memory-Usage 11136MiB/12288MiBPlan de test de comparaison par LeChat de Mistral:
Mistral
Agentic Capabilities LLMs.
Listes d'agents
La concurrence est rude entre les entreprises et startups de l’IA. Dernier terrain de bataille, les agents dédiés au développement web et à la programmation. Google, avec Jules ; OpenAI, avec Codex ; GitHub, avec Copilot ; Anthropic, avec Claude Code, sans oublier les outils comme Lovable. Au tour maintenant du Français Mistral de proposer un « assistant de programmation propulsé par l’IA ». Mais de quoi s’agit-il exactement ?
→ Mistral Code, un nouvel agent IA pour automatiser le développement logiciel
THÉRÈSE (Terminal Helper for Engineering, Research, Editing, Software & Execution) est un assistant de code en ligne de commande, 100% français, inspiré de Claude Code mais propulsé par Mistral AI.
https://github.com/ludovicsanchez38-creator/Synoptia-THERESE-CLI
shai is a coding agent, your pair programming buddy that lives in the terminal. Written in rust with love <3 at OVH.
Les prompts system:
Plus de choses OpenCode
opencode models liste les modèles disponibles sur les providers configurés. Bien pratique pour trouver le nom à mettre dans la config.
Modèles on-line essayés avec opencode.
Par Anysphere Inc
Contient le serveur de model qu'il faut installer.
fork de Google's Gemini CLI
Apache 2.0 license
Les serveurs MCP sont des programmes qui exposent des capacités spécifiques aux applications d'IA via des interfaces de protocole standardisées. Parmi les exemples courants, on peut citer les serveurs de systèmes de fichiers pour l'accès aux documents, les serveurs de bases de données pour les requêtes de données, les serveurs GitHub pour la gestion du code, les serveurs Slack pour la communication entre équipes et les serveurs de calendrier pour la planification.
3 typologies:
Articles:
Curated lists:
A collection of reference implementations for the Model Context Protocol (MCP), as well as references to community-built servers and additional resources.
A local, extensible, open source AI agent that automates engineering tasks.
Apify Actors scrape up-to-date web data from any website for AI apps and agents, social media monitoring, competitive intelligence, lead generation, and product research. Crawl website to feed AI
https://grounded.tools/ https://github.com/arabold/docs-mcp-server
Index 3rd party documentation from websites, GitHub, npm, PyPI, and local files. Provide your AI with version-aware search tools via the Model Context Protocol. The open-source alternative to Context7, Nia, and Ref.Tools.
Dédié Php Laravel: https://laravel.com/ai/boost
https://github.com/ChromeDevTools/chrome-devtools-mcp/
chrome-devtools-mcp permet à votre agent de codage (tel que Gemini, Claude, Cursor ou Copilot) de contrôler et d'inspecter un navigateur Chrome en direct. Il agit comme un serveur MCP (Model-Context-Protocol), donnant à votre assistant de codage IA accès à toute la puissance de Chrome DevTools pour une automatisation fiable, un débogage approfondi et une analyse des performances.
https://github.com/modelcontextprotocol/servers-archived/tree/main/src/puppeteer
A Model Context Protocol server that provides browser automation capabilities using Puppeteer. This server enables LLMs to interact with web pages, take screenshots, and execute JavaScript in a real browser environment.
puppeteer_navigate, puppeteer_screenshot, puppeteer_click, puppeteer_hover, puppeteer_fill, puppeteer_select, puppeteer_evaluate
Yen a toute une palanquée mais peu/pas de github stars, contributeurs…
{
"fallbacks": {
"enabled": true,
"order": [
"openai/gpt-4o-mini",
"anthropic/claude-sonnet-4",
"mistral/mistral-large-latest"
]
}
}
Le “prompt système” est un élément essentiel : c'est la feuille de route pour le modèle, en définissant son comportement, ses limites, et même sa “personnalité”. Son efficacité dépend de sa formulation et des spécificités du modèle.
system message pour un chatbot: Demo: A Chatbot For Super-Spies!A unified interface for working with LLMs in Laravel.