Le Machine Learning Blog

Intelligence Artificielle et Mathématiques. Partie 1: Anatomie d'un réseau neuronal

 

"En disant verbalement que les mathématiques sont difficiles, nous le disons avec un langage dont la syntaxe est aussi complexe, ni plus ni moins que celle qui régit les mathématiques"

 

neural network

Les réseaux de neurones (DNN) sont l'un des modèles d'apprentissage automatique les plus utilisés de nos jours. DNN peut être visualisé comme un ensemble de nœuds et de lignes formant un réseau, voir la figure 1. Sa similarité avec l'organisation des neurones dans le cerveau est évidente, mais ce sujet sera discuté plus tard.

 

neural network

Figure 1. Diagramme simplifié de Deep Neural Network (DNN)

 

 

Dans un réseau de neurones, deux nœuds et une ligne correspondent à une unité de base du modèle et représentent graphiquement une fonction mathématique de type:

 

f (x) = kx

 

Pour la figure 2, la variable d'entrée (x) correspond au nœud vert, la variable de sortie f(x) au noeud bleu et la ligne qui les rejoint correspond à la constante k:

 

 

neural node

Figure 2. Unité fondamentale d'un DNN

 

 

Chaque fonction mathématique peut être visualisée comme une boîte qui reçoit un ou plusieurs éléments d’entrée et fournit un seul élément de sortie:

 

 

math function

Figure 3. Représentation graphique d'une fonction mathématique

 

 

La fonction "f "est une relation mathématique entre une ou plusieurs variables d'entrée et une variable de sortie.

Ainsi, la fonction:

 

f (x) = 3.x

 

prendre des valeurs d'entréex, les multiplie par 3 et délivre des valeurs de sortie f(x):

 

 

function

Figure 4. Éléments d'entrée (x) et sortie f (x) définis par la fonction f

 

 

La valeur "3" sur chaque flèche correspond à la valeur de la constante (paramètre de la fonction) qui le caractérise dans chaque cas.

Dans le réseau de neurones de la figure 1, chaque élément de sortie correspond à la somme de plusieurs fonctions, chacune avec son propre paramètre qui le définit:

 

three variable function

Figure 5. Fonction avec trois variables d'entrée et une variable de sortie

 

 

Pour illustrer, travaillons sur certains nœuds et lignes du réseau neuronal mentionnés ci-dessus, voir la figure 6.

 

Partial neural network

 

Figure 6. Détail partiel d'un réseau neuronal

 

 

 

Pour ces éléments du réseau, on peut définir une fonction:

 

f (Xi) = Sum (Ki.Xi)

 

Ceci est la sortie f(Xi) (nœud orange) correspond à la somme des variables d'entrée multipliées chacune par la constante correspondante (paramètre de fonction).

L'exemple précédent nous montre que si nous prédéfinissons des valeurs pour les 32 paramètres (valeurs du total des lignes de liaison du réseau neuronal) et que nous avons les valeurs des trois variables d'entrée (couche d'entrée), nous pouvons enchaîner de gauche à droite, les résultats des fonctions, en convertissant la sortie d'une fonction en entrée de la suivante, jusqu'à obtenir les valeurs de la dernière sortie (Output Layer).

Cette opération est connue sous le nom de"Forward propagation",pour les modèles formés (paramètres avec valeurs assignées), cela permet d'évaluer ou de classer les entités en entrée, cette évaluation étant la sortie calculée du modèle.

L'article suivant sera consacré à un exemple illustratif de la théorie présentée ici.

 

Intelligence Artificielle
Réseaux de neurones