AI_Explained_01

Au cours des derniers mois, Microsoft, Google, Apple, Facebook et d’autres entités ont déclaré que nous ne vivions plus dans un monde mobile. Au lieu de cela, c’est un monde d’intelligence artificielle, où les assistants numériques et d’autres services seront votre principale source d’information et d’accomplissement des tâches. Votre smartphone ou votre PC  sont maintenant vos concurrents secondaires.

Soutenir cette nouvelle frontière sont deux termes que vous entendrez souvent: l’apprentissage automatique et l’apprentissage en profondeur. Ce sont deux méthodes pour «enseigner» l’intelligence artificielle afin d’effectuer des tâches, mais leurs utilisations vont bien au-delà de la création d’assistants intelligents. Quelle est la différence? Voici une explication rapide.

Les ordinateurs voient, entendent et parlent maintenant

Avec l’aide de l’apprentissage automatique, les ordinateurs peuvent maintenant être « formés » pour prédire la météo, déterminer les résultats du marché boursier, comprendre vos habitudes d’achat, contrôler les robots dans une usine, et ainsi de suite. Google, Amazon, Facebook, Netflix, LinkedIn, et plusieurs des services aux consommateurs sont tous soutenus par l’apprentissage automatique. Mais au cœur de tout cet apprentissage se trouve ce qu’on appelle un algorithme.

En termes simples, un algorithme n’est pas un programme d’ordinateur complet (un ensemble d’instructions), mais une séquence limitée d’étapes pour résoudre un seul problème. Par exemple, un moteur de recherche s’appuie sur un algorithme qui saisit le texte que vous entrez dans la zone de champ de recherche et recherche dans une base de données les résultats de recherche associés. Il prend des mesures spécifiques pour atteindre un objectif unique et spécifique.

L’apprentissage automatique existe depuis 1956. Arthur Samuel ne voulait pas écrire un programme long et détaillé qui pourrait permettre à un ordinateur de le battre dans un jeu de dames. Au lieu de cela, il a créé un algorithme qui a permis à l’ordinateur de jouer contre lui-même des milliers de fois, afin qu’il puisse « apprendre » comment jouer comme un adversaire autonome. En 1962, cet ordinateur a battu le champion du Connecticut.

Ainsi, à la base, l’apprentissage automatique est basé sur des essais et des erreurs. Nous ne pouvons pas écrire manuellement un programme qui peut aider une voiture autonome à distinguer un piéton d’un arbre ou d’un véhicule, mais nous pouvons créer un algorithme pour un programme qui peut résoudre ce problème en utilisant des données. Des algorithmes peuvent également être créés pour aider les programmes à prédire la trajectoire d’un ouragan, diagnostiquer la maladie d’Alzheimer tôt, déterminer les étoiles les plus surpayées et sous-payées du monde du football, etc.

L’apprentissage automatique s’exécute généralement sur des périphériques bas de gamme et divise un problème en plusieurs parties. Chaque partie est résolue dans l’ordre, puis combinée pour créer une réponse unique au problème. Tom Mitchell, de l’Université Carnegie Mellon, explique que les programmes informatiques «apprennent» de l’expérience si leur performance d’une tâche spécifique s’améliore. Les algorithmes d’apprentissage automatique permettent essentiellement aux programmes de faire des prédictions et, au fil du temps, d’améliorer leurs prédictions en fonction d’expériences d’essais et d’erreurs.

Voici les quatre principaux types d’apprentissage automatique

1. Apprentissage automatique supervisé

Dans ce scénario, vous fournissez un programme informatique avec des données étiquetées. Par exemple, si la tâche assignée est de séparer les images des garçons et des filles en utilisant un algorithme pour trier les images, celles avec un enfant mâle auront une étiquette «garçon» et les images avec une fille auront une étiquette «fille». Ceci est considéré comme un ensemble de données « d’apprentissage », et les étiquettes restent en place jusqu’à ce que le programme puisse trier les images avec succès à un taux acceptable.

2. Apprentissage automatique semi-supervisé

Dans ce cas, seules quelques images sont étiquetées. Le programme informatique utilisera alors un algorithme pour faire sa meilleure estimation concernant les images non marquées, puis les données seront renvoyées au programme en tant que données d’apprentissage. Un nouveau lot d’images est alors fourni, avec seulement quelques étiquettes sportives. C’est un processus répétitif jusqu’à ce que le programme puisse faire la distinction entre les garçons et les filles à un taux acceptable.

3. Apprentissage automatique non supervisé

Ce type d’apprentissage automatique n’implique aucune étiquette. Au lieu de cela, le programme est jeté aveuglément dans la tâche de séparer les images de garçons et de filles en deux groupes en utilisant l’une des deux méthodes. Un algorithme est appelé « regroupement » qui regroupe des objets similaires en fonction de caractéristiques telles que la longueur des cheveux, la taille de la mâchoire, le placement des yeux, etc. L’autre algorithme est appelé « association » où le programme crée des règles if / then basées sur les similarités qu’il découvre. En d’autres termes, il détermine un motif commun entre les images et les trie en conséquence.

4. Renforcement de l’apprentissage de la machine

Les échecs seraient un excellent exemple de ce type d’algorithmes. Le programme connaît les règles du jeu et comment jouer, et passe par les étapes pour compléter le tour. La seule information fournie au programme est de savoir s’il a gagné ou perdu le match. Il continue à rejouer le jeu, en gardant la trace de ses mouvements réussis, jusqu’à ce qu’il gagne finalement un match.

Conclusion

En résumé, les différences entre le « Deep learning » et la « machine learning » c’est que l’apprentissage en profondeur (Deep learning) fait partie d’une famille plus large de méthodes d’apprentissage automatique basées sur l’apprentissage de représentations de données, par opposition à des algorithmes spécifiques à une tâche. L’apprentissage peut être supervisé, semi-supervisé ou non supervisé. Certaines représentations sont vaguement basées sur l’interprétation des schémas de traitement de l’information et de communication dans un système nerveux biologique, comme le codage neuronal qui tente de définir une relation entre divers stimuli et les réponses neuronales associées dans le cerveau.

Des architectures d’apprentissage approfondies telles que les réseaux neuronaux profonds, les réseaux de croyances profonds et les réseaux neuronaux récurrents ont été appliqués à la vision par ordinateur, la reconnaissance vocale, le traitement du langage naturel, la reconnaissance audio, le filtrage des réseaux sociaux, la traduction automatique, la bio-informatique, etc, où ils ont produit des résultats comparables et, dans certains cas, supérieurs à des experts humains.