Réseau de neurones récurrent Long Short-Term Memory. Spécialisé dans les séquences temporelles et la mémoire à long terme.
LSTM (Long Short-Term Memory) est un réseau de neurones récurrent spécialement conçu pour les séries temporelles — exactement ce que sont les données de prix crypto. Contrairement aux modèles de gradient boosting (XGBoost, LightGBM) qui traitent chaque point de données indépendamment, LSTM a une « mémoire » qui lui permet de capturer les dépendances temporelles : comment le prix d'hier influence celui d'aujourd'hui, comment un pattern de volume sur 3 jours annonce un mouvement. C'est le premier « deep learning » de l'arène ML.
Architecture LSTM à 2 couches (128 et 64 neurones) avec mécanisme de gates (forget, input, output). Reçoit une séquence de 30 heures de données (prix, volume, RSI, MACD, ATR). Les gates décident quoi retenir et quoi oublier de la séquence. Prédit la direction du prix à H+4 et H+8. Entraîné sur 1 an de données avec early stopping pour éviter l'overfitting. Dropout 20% pour la régularisation.
Prédiction LSTM (probabilité directionnelle H+4 et H+8). Séquence de 30 heures en entrée. Mécanisme de gates (mémoire sélective). Confidence score (softmax output). Ré-entraînement mensuel. Architecture deep learning à 2 couches.
Modéré
Capture les dépendances temporelles que les modèles tabulaires ratent. Mémoire à long et court terme (dual memory). Architecture éprouvée pour les séries temporelles financières. Découvre des patterns séquentiels complexes invisibles aux indicateurs techniques.
Lent à entraîner (deep learning = GPU requis). Sensible aux hyperparamètres (taille des couches, learning rate). Boîte noire (difficile d'expliquer pourquoi une prédiction est faite). Risque d'overfitting plus élevé que les modèles d'ensemble.
Explorez les 74 stratégies de trading dans 4 arènes
🏟️ Voir toutes les stratégies