Réseaux de neurones de troisième génération : Réseaux profonds
Réseaux de neurones de troisième génération : Réseaux profonds
Cet article est consacré à une nouvelle direction en perspective dans l’apprentissage automatique - l’apprentissage profond ou, pour être précis, les réseaux de neurones profonds. Il s’agit d’un bref examen des réseaux de neurones de deuxième génération, de l’architecture de leurs connexions et de leurs principaux types, méthodes et règles d’apprentissage et de leurs principaux inconvénients, suivi de l’histoire du développement des réseaux de neurones de troisième génération, de leurs principaux types, particularités et méthodes d’entraînement. Des expériences pratiques sur la construction et l’entraînement d’un réseau neuronal profond initié par les poids d’un autoencodeur empilé avec des données réelles sont menées. Toutes les étapes, de la sélection des données d’entrée à la dérivation métrique, sont discutées en détail.
Développement d'un robot en Python et MQL5 (Partie 1) : Pré-traitement des données
Développement d'un robot en Python et MQL5 (Partie 1) : Pré-traitement des données
Développement d'un robot de trading basé sur l'apprentissage automatique : Un guide détaillé. Le premier article de la série traite de la collecte et de la préparation des données et des caractéristiques. Le projet est mis en œuvre à l'aide du langage de programmation et des bibliothèques Python, ainsi que de la plateforme MetaTrader 5.
Mesure des Informations sur les Indicateurs
Mesure des Informations sur les Indicateurs
L'apprentissage automatique est devenu une méthode populaire pour l'élaboration de stratégies. Alors que l'accent a été mis sur la maximisation de la rentabilité et de la précision des prédictions, l'importance du traitement des données utilisées pour construire des modèles prédictifs n'a pas fait l'objet d'une grande attention. Dans cet article, nous envisageons d'utiliser le concept d'entropie pour évaluer l'adéquation des indicateurs à utiliser dans la construction de modèles prédictifs, comme indiqué dans le livre Testing and Tuning Market Trading Systems de Timothy Masters.
Algorithmes d'optimisation de la population : Harmony Search (HS)
Algorithmes d'optimisation de la population : Harmony Search (HS)
Dans cet article, j'étudierai et testerai l'algorithme d'optimisation le plus puissant : la recherche harmonique (HS), inspirée par le processus de recherche de l'harmonie sonore parfaite. Quel est donc l'algorithme qui domine aujourd'hui notre classement ?
Algorithmes d'optimisation de la population : Algorithme de Recherche Gravitationnelle (Gravitational Search Algorithm, GSA)
Algorithmes d'optimisation de la population : Algorithme de Recherche Gravitationnelle (Gravitational Search Algorithm, GSA)
GSA est un algorithme d'optimisation de la population inspiré de la nature inanimée. Grâce à la loi de la gravité de Newton implémentée dans l'algorithme, la grande fiabilité de la modélisation de l'interaction des corps physiques nous permet d'observer la danse enchanteresse des systèmes planétaires et des amas de galaxies. Dans cet article, j'examinerai l'un des algorithmes d'optimisation les plus intéressants et les plus originaux. Le simulateur de mouvement des objets spatiaux est également fourni.
Modèles de classification dans la bibliothèque Scikit-Learn et leur export vers ONNX
Modèles de classification dans la bibliothèque Scikit-Learn et leur export vers ONNX
Dans cet article, nous allons explorer l'application de tous les modèles de classification disponibles dans la bibliothèque Scikit-Learn pour résoudre la tâche de classification de l'ensemble de données Iris de Fisher. Nous tenterons de convertir ces modèles au format ONNX et d'utiliser les modèles résultants dans les programmes MQL5. Nous comparerons également la précision des modèles originaux avec leurs versions ONNX sur l'ensemble du jeu de données Iris.
Modèles de régression de la bibliothèque Scikit-learn et leur export vers ONNX
Modèles de régression de la bibliothèque Scikit-learn et leur export vers ONNX
Dans cet article, nous allons explorer l'application des modèles de régression du paquet Scikit-learn, tenter de les convertir au format ONNX, et utiliser les modèles résultants dans des programmes MQL5. Nous comparerons également la précision des modèles originaux avec leurs versions ONNX pour la précision flottante et la précision double. Nous examinerons aussi la représentation ONNX des modèles de régression, afin de mieux comprendre leur structure interne et leurs principes opérationnels.
Matrices et vecteurs en MQL5 : Fonctions d'activation
Matrices et vecteurs en MQL5 : Fonctions d'activation
Nous ne décrirons ici qu'un seul des aspects de l'apprentissage automatique, à savoir les fonctions d'activation. Dans les réseaux neuronaux artificiels, la fonction d'activation d'un neurone calcule la valeur d'un signal de sortie en fonction des valeurs d'un signal d'entrée ou d'un ensemble de signaux d'entrée. Nous nous pencherons sur les rouages du processus.
Un exemple d'assemblage de modèles ONNX dans MQL5
Un exemple d'assemblage de modèles ONNX dans MQL5
ONNX (Open Neural Network eXchange) est un format ouvert conçu pour représenter les réseaux neuronaux. Dans cet article, nous allons montrer comment utiliser simultanément 2 modèles ONNX dans un Expert Advisor.
Comment utiliser les modèles ONNX dans MQL5
Comment utiliser les modèles ONNX dans MQL5
ONNX (Open Neural Network Exchange) est un format ouvert, conçu pour représenter des modèles d'apprentissage automatique. Dans cet article, nous verrons comment créer un modèle CNN-LSTM pour prévoir des séries temporelles financières. Nous montrerons également comment utiliser le modèle ONNX créé dans un Expert Advisor MQL5.
Algorithmes d'optimisation de la population : Algorithme d'Optimisation du Loup Gris - Grey Wolf Optimizer (GWO)
Algorithmes d'optimisation de la population : Algorithme d'Optimisation du Loup Gris - Grey Wolf Optimizer (GWO)
Considérons l'un des algorithmes d'optimisation modernes les plus récents : le Grey Wolf Optimization. Le comportement original sur les fonctions de test fait de cet algorithme l'un des plus intéressants parmi ceux considérés précédemment. C'est l'un des meilleurs algorithmes à utiliser dans la formation de réseaux de neurones, des fonctions fluides avec de nombreuses variables.
Algorithmes d'optimisation de la population : Essaim de Particules (OEP ou PSO en anglais)
Algorithmes d'optimisation de la population : Essaim de Particules (OEP ou PSO en anglais)
Dans cet article, j'examinerai l'algorithme populaire d'Optimisation par Essaims Particulaires (OEP ou Particle Swarm Optimization - PSO). Précédemment, nous avons abordé les caractéristiques importantes des algorithmes d'optimisation telles que la convergence, le taux de convergence, la stabilité et l'évolutivité, et nous avons développé un banc d'essai et examiné l'algorithme RNG le plus simple.
Data Science et Apprentissage Automatique (partie 6) : Descente de Gradient
Data Science et Apprentissage Automatique (partie 6) : Descente de Gradient
La Descente de Gradient joue un rôle important dans la formation des réseaux neuronaux et de nombreux algorithmes d'apprentissage automatique. C'est un algorithme rapide et intelligent. Mais malgré son travail impressionnant, il est encore mal compris par beaucoup de data scientists. Voyons de quoi il s'agit.
Matrices et vecteurs en MQL5
Matrices et vecteurs en MQL5
En utilisant les types de données spéciaux "matrix" et "vector", il est possible de créer un code très proche de la notation mathématique. Avec ces méthodes, vous pouvez éviter de créer des boucles imbriquées ou de faire attention à l'indexation correcte des tableaux dans les calculs. Par conséquent, l'utilisation des méthodes matricielles et des méthodes vectorielles augmente la fiabilité et la rapidité du développement de programmes complexes.
Science des Données et Apprentissage Automatique (partie 03) : Matrices de Régression
Science des Données et Apprentissage Automatique (partie 03) : Matrices de Régression
Cette fois-ci, nos modèles sont faits avec des matrices. Ceci permet une certaine flexibilité tout en nous permettant de faire des modèles puissants pouvant gérer non seulement cinq variables indépendantes mais aussi de nombreuses variables (tant que nous restons dans les limites de calcul d'un ordinateur). Cet article va être une lecture intéressante, c'est certain.