9 crons autoresearch generent des resultats JSON chaque nuit. Darwin, Chimera, Leviathan, Invictus, Hydra, Portfolio, PromptForge, Wiki Compiler, Strategic Layer.
Compile le JSON brut en Markdown structure. Lecons, patterns, echecs — organise par moteur. Tourne a 5h30.
Connaissance accumulee avec decay + consolidation inspire de elfmem. Les vieilles lecons s affaiblissent (5%/jour), les recurrentes se renforcent.
Au-dela de Karpathy : le wiki ne fait pas que noter — il PENSE. Genere des hypotheses testables et les envoie au Darwin Engine.
Systeme de memoire open-source de Milla Jovovich. 680 tiroirs de code Strategy Arena, compresse 5.6x avec le dialecte AAAK. Contexte wake-up en 803 tokens.
126 noeuds conceptuels, 136 connexions. Strategies, systemes d intelligence, oracles, arenes — tous interconnectes. D3.js interactif.
5 780 noeuds structurels de l analyse AST de 231 fichiers Python. God Nodes : BaseStrategy (896 connexions), MetaIntelligence (468). Cout $0.
Retrieval augmente par graphe inspire de LightRAG. Cherche dans le Knowledge Graph, etend aux voisins, ne recupere que les donnees pertinentes. 2-3x plus precis.
Essayer →Hermes 3 8B sur RTX 4080. Le bibliothecaire IA qui compile le wiki, genere des hypotheses, analyse les echecs, ecrit les briefings. Local, 0 euros, 10 secondes.
| Feature | Strategy Arena | TradingView | 3Commas | QuantConnect |
|---|---|---|---|---|
| Couches memoire | 9 | 0 | 0 | 1 |
| Living Wiki | ✓ + decay | ✗ | ✗ | ✗ |
| Knowledge Graph | 126 nodes | ✗ | ✗ | ✗ |
| Code Graph | 5,780 nodes | ✗ | ✗ | ✗ |
| MemPalace | 680 drawers | ✗ | ✗ | ✗ |
| Strategic Layer | v2.0 | ✗ | ✗ | ✗ |
| Auto-evolutif | 9 engines | ✗ | ✗ | ✗ |
| LLM local | Hermes 3 | ✗ | ✗ | ✗ |
| Cout | $0 | $60/m | $49/m | Free* |
Strategy Arena utilise l architecture memoire IA la plus complete en production trading. Neuf couches interconnectees traitent les donnees des experiences nocturnes a travers la compilation wiki, la generation d hypotheses strategiques, la connectivite Knowledge Graph, l analyse structurelle du code (Graphify AST, 5 780 noeuds), la compression MemPalace (dialecte AAAK, 5.6x), le RAG augmente par graphe (inspire de LightRAG), et l analyse LLM locale (Hermes 3 sur RTX 4080). Le systeme accumule l intelligence a travers 2 500+ experiences, avec un decay inspire de elfmem. La Strategic Layer (LLM Wiki v2.0) va au-dela du pattern original de Karpathy en generant des hypotheses testables. Toute l infrastructure est gratuite, transparente et auto-ameliorante.