Description
L’IA en local, sans compromis sur vos données
Andrew Ng, cofondateur de Coursera et figure centrale de la démocratisation de l’intelligence artificielle, inspire cette station pensée pour ceux qui veulent garder le contrôle. Le PC Andrew permet de faire tourner des modèles d’IA en local — sans envoyer une seule ligne de données dans le cloud.
Pour qui ?
- Développeurs IA — inférence locale de LLM (Llama, Mistral, Phi), prototypage de RAG, agents autonomes
- Chercheurs & étudiants — expérimentation PyTorch/TensorFlow, notebooks Jupyter, fine-tuning de petits modèles
- Professionnels soucieux de confidentialité — données médicales, juridiques ou financières qui ne doivent pas quitter le poste
- Makers & passionnés — Ollama, LM Studio, Stable Diffusion, génération d’images et de texte en local
12 Go de VRAM : le sweet spot pour l’IA locale
La RTX 3060 embarque 12 Go de VRAM — un atout décisif pour l’inférence de modèles de langage. Elle permet de charger des modèles quantifiés jusqu’à 13B paramètres (Llama 3, Mistral, Phi-3) avec des performances fluides. Associée aux 32 Go de RAM DDR5, la machine gère sans broncher les pipelines de données et le multitâche intensif.
Silencieux par design
Le boîtier Fractal Design Pop Mini Silent et le ventirad be quiet! Dark Rock 5 garantissent un niveau sonore minimal — essentiel pour un poste de travail utilisé au quotidien, que ce soit en bureau ou à domicile.
Points forts
- AMD Ryzen 5 9600 — 6 cœurs Zen 5, excellent rapport performance/watt
- NVIDIA RTX 3060 12 Go — 12 Go de VRAM pour charger des LLM en local (Ollama, LM Studio)
- 32 Go DDR5-6000 Corsair Vengeance — bande passante élevée pour le traitement de données
- SSD Crucial P510 1 To PCIe 5.0 — chargement ultra-rapide des modèles et datasets
- Boîtier Fractal Design Pop Mini Silent — fonctionnement silencieux
- Carte mère B650M WiFi 6E — connectivité complète, plateforme AM5 évolutive