EN FR

Couche 1 — Atome

Worker LLM autonome · hétérogène · plug-and-play

machine contributrice · Linux/macOS/Windows · CPU/GPU hétérogène CLI · iamine-ai python -m iamine worker --auto pip install iamine-ai iamine init bootstrap OPENCODE.md /v1/opencode-md Ed25519 identity worker_id + keypair signature heartbeat HW auto-detect • threads CPU · RAM dispo • GPU (CUDA/Metal/ROCm) • capabilities report → choix modèle GGUF adapté Model Selector Qwen 0.8B (bench) · 2B · 3B · 9B · 14B Qwen3-30B-A3B (MoE shardé) match HW ↔ profil pool download · cache · hot-swap Runtime — llama.cpp inférence GGUF · context-length adaptatif (32K → 131K) tool-calling OpenAI-compatible · SSE streaming wheel précompilé par le pool · worker ne compile jamais Cache GGUF local · immuable SHA hash check multi-modèles coexistants iamine.service systemd · auto-restart watchdog self-update journalctl -u iamine Admin local status · logs · config readonly prod sans mdp sudo systemctl … WebSocket → Pool wss://cellule.ai/ws · join · heartbeat · job poll · stream tokens back message signé Ed25519 · reconnect auto · multi-pool compatible (M7b seed list) POOL FastAPI · Postgres · WS routing coopératif assign jobs au worker couche 2 → cliquer pour explorer signe caps model load wss

Hardware heterogeneity

  • • CPU threads auto-scan
  • • RAM libre → fenêtre modèle
  • • GPU CUDA/Metal/ROCm détecté
  • • Modèle sélectionné selon "atome hétérogène avec personnalité"

Runtime

  • • llama.cpp wheel GPU précompilé
  • • jamais de compilation locale
  • • context 32K → 131K escalade auto
  • • tool-calling OpenAI-compatible

Sécurité locale

  • • Ed25519 keypair (jamais exfiltré)
  • • Unix permissions (pas de règles écrites)
  • • Admin readonly sans mdp David
  • • Service isolé (user dédié)