Machine learning : définition, avantages et limites

Machine learning

Affilié à l’intelligence artificielle, le Machine Learning ou apprentissage automatique est une théorie scientifique basée sur une technique de programmation informatique. Cette technologie utilise les probabilités statistiques pour permettre à un ordinateur d’auto-apprendre sans avoir recours à l’intervention de l’homme.

Il s’agit d’une nouvelle prouesse technologique étroitement liée au big data et qui repose sur le flux de données assurant son apprentissage. Dans cet article, nous allons tenter de mieux comprendre les algorithmes de machine learning, ses points de différences avec le deep learning ainsi que les avantages qu’il offre à la société moderne.

Qu’est-ce que le machine learning ?

Il est vrai que le terme machine learning porte encore à confusion chez certaines personnes. Cette nouvelle technologie permet de repérer des patterns (des répétitions) dans les flux de données afin d’en tirer des conclusions basées sur des statistiques bien précises. En d’autres termes, le machine learning pioche dans l’ensemble des données présentées afin de fournir des analyses prédictives.

Quels ont été les débuts du machine learning ?

Les premiers algorithmes de machine learning ont été conçus dans les années 1950. Cette époque a été marquée par le Perceptron. Il s’agit d’un algorithme d’apprentissage composé d’un neurone artificiel effectuant des calculs. L’objectif du Perceptron est de déceler des caractéristiques dans les données présentées.

Cet algorithme a été élaboré pour la première fois en 1957 au laboratoire d’aéronautique de l’université Cornell par Frank Rosenblatt, un psychologue américain spécialisé dans l’intelligence artificielle.

Quels sont ses objectifs et ses caractéristiques ?

Le machine learning a principalement été conçue pour permettre l’analyse d’une quantité astronomique de données. Cette activité chronophage et quasi impossible à réaliser par l’homme. Il a permis une avancée technologique importante dans l’univers du big data. Cette technologie s’est d’ailleurs révélée efficace dans le repérage d’insights à partir d’un grand volume de données.

Contrairement aux autres machines traditionnelles, ses outils offrent davantage de vitesse de précision et d’efficacité dans la valorisation des données. Par exemple, il est en mesure de déceler une tentative de fraude en moins d’une seconde. Pour ce faire, il se base sur un ensemble d’informations issus de la transaction effectuée ainsi que l’historique social qui lui est rattaché. Le machine learning s’est également révélé indispensable dans l’analyse des données transactionnelles, des données provenant des plateformes CRM ou des réseaux sociaux.

En somme, l’apprentissage automatique a réalisé d’énormes progrès dans l’analyse et l’extraction des données numériques et du big data. Là où les outils analytiques traditionnels se heurtent à une quantité limitée de données, le machine learning est en mesure d’extraire et d’analyser une source quasi-illimitée d’informations complexes.

Ses types

On retrouve différents types de machine learning et chaque type est utilisé à des fins bien précises. Étant donné qu’il se base entièrement sur des algorithmes, on retrouve deux principaux types d’apprentissage automatique.

Le machine learning supervisé

Il s’agit du modèle de machine learning le plus utilisé actuellement. Dans ce type de ML, l’intervention du data scientist est indispensable afin de guider et d’enseigner à l’algorithme les objectifs de l’analyse et la conclusion à tirer. Cette approche est d’ailleurs comparée à l’apprentissage des enfants et le stockage des images. Avec l’apprentissage supervisé, l’algorithme apprend à travers un jeu de données déjà étiqueté et dont la conclusion est déjà prédéfinie. Pour vous donner un ordre d’idées, la régression linéaire ou logistique fait partie intégrante du machine learning supervisé.

Le machine learning non supervisé

Contrairement à son acolyte, le machine learning non supervisé a une approche plus autonome. En effet, l’ordinateur est en mesure d’identifier des processus et de détecter des schémas complexes sans l’intervention de l’homme. Ce type d’apprentissage implique une formation basée sur des données non étiquetées et sans résultats spécifiques définis.

A titre d’exemple, il est souvent comparé à un apprentissage par observation et non par mémorisation comme dans le cas de l’apprentissage supervisé.

Le machine learning semi-supervisé

L’apprentissage semi-supervisé est une des solutions permettant le tri d’un gros volume de données brutes et non structurées. Pour ce faire, ce modèle consiste à introduire une quantité de données étiquetées afin d’enrichir les données non étiquetées. Ces données permettent ainsi au système d’être en avance et d’améliorer la vitesse de l’apprentissage.

Quelle approche choisir ?

L’approche qui vous convient le plus dépend grandement de vos besoins et des facteurs liés à la structure et au volume des données. Toutefois, le machine learning a fait ses preuves ses dernières années dans différents secteurs professionnels notamment dans la détection d’anomalies, la classification d’images, la maintenance prédictive et la valeur du cycle de vie des clients.

Machine learning vs deep learning: les différences ?

Le deep learning et le machine learning ont énormément de points en commun. Il s’agit de deux technologies permettant la valorisation des données brutes. Toutefois, le machine learning est une technologie assez ancienne et beaucoup moins complexe. Elle s’appuie sur un algorithme pouvant adapter le système à partir de l’intervention humaine. Cette technologie repose partiellement sur l’existence de données organisées. Le système pourra ensuite comprendre et classer les données similaires. Le deep learning est, quant à lui, une technologie qui ne nécessite pas la présence de données structurées. Cette technologie fonctionne grâce à plusieurs couches de réseaux de neurones artificiels inspirés du cerveau humain et pouvant mimer les capacités intellectuelles de l’homme. Le deep learning est en mesure d’identifier seul l’ensemble des caractéristiques de la donnée sans avoir recours à une catégorisation préalable.

Les domaines d’application du machine learning

Depuis quelques années, l’intelligence artificielle s’est invitée dans les entreprises et dans différents secteurs professionnels. En effet, la technologie du machine learning a été introduite dans divers domaines afin d’aider la recherche scientifique à déceler certaines problématiques.

La technologie du machine learning est principalement utilisée dans la collecte de données sur internet. En fonction des résultats obtenus, il permet d’appréhender les besoins des clients et les services/produits qui pourraient l’intéresser. Le but de cette activité est purement commercial et permet d’affiner les recherches des internautes afin de proposer un contenu en accord avec leurs centres d’intérêts.

La recherche médicale a également connu des avancées importantes grâce au machine learning. En effet, les modèles d’apprentissage automatique permettent d’établir un diagnostic de l’état de santé d’un patient ou de prévenir certaines pathologies.

En somme, le machine learning a permis de faire avancer la science et de faciliter le quotidien des gens. Entre la détection de failles, la prévention de fraude jusqu’à la reconnaissance vocale et faciale, il n’a pas encore fini de nous surprendre.

Ses limites

Comme toute technologie récente, le machine learning dispose d’un certain nombre de limites et d’inconvénients qui peuvent constituer un frein dans le développement de la technologie. Tout d’abord, le théorème « no free lunch » que l’on pourrait traduire par « pas de déjeuner gratuit » indique qu’aucun algorithme quel qu’il soit ne peut être la solution pour tous les problèmes. Si un algorithme de machine learning s’avère efficace sur un type de problème, il le sera moins pour un autre. En effet, un modèle considéré comme une approximation de la réalité repose sur un certain nombre d’hypothèses qui dépendent du contexte. Dans certains cas, les hypothèses sont différentes pour chaque problème.

Son second inconvénient est ce qu’on appelle l’intractability. Cette notion définit les problématiques qui ne peuvent être résolus rapidement et peuvent s’avérer beaucoup plus complexes. En algorithmique, cela désigne une classe de problème solvable en théorie mais qui reste très difficile à résoudre en pratique.

Pour finir, il est une technologie récente mais qui promet de nombreuses évolutions au cours des années. Toutefois, ses limites sont de plus en plus soulignées accusant la technologie d’établir de fausses corrélations. Dans son livre Spurious Correlations, Tyler Vigan, scientifique des données et diplômé d’Harvard, indique que « les corrélations ne traduisent pas toutes une connexion de causalité sous-jacente ». Pour relever son point de vue, l’auteur présente un graphique contenant une forte corrélation entre la consommation de margarine et le taux de divorce dans l’état du Maine. Bien que l’idée soit sarcastique, Vigan tente ici de démontrer la sensibilité du machine learning aux erreurs humaines. Compte tenu de la capacité d’adaptation, les fausses corrélations peuvent se répandre et détériorer les résultats.