Vous avez dit machine learning?

 

ml

 

Selon Angel.co, 916 machines de startups sont aujourd’hui en apprentissage automatisé. Cela représente une augmentation de 47% par rapport à mai 2015. Dès lors, le machine learning est une technologie à croissance exponentielle.
Historiquement, cette théorie a pris son essor avec les travaux des mathématiciens Vapnik et Chervonenkis dans les années 1960. Ces travaux se sont développés un peu à l’écart du monde des probabilités et des statistiques et n’ont pas été reconnus tout de suite. Le machine learning ne se concentre plus sur des objets abstraits mais sur le côté opérationnel, c’est-à-dire la prise de décision à partir des données en faisant le moins d’erreurs possibles.
Cet article consiste à présenter les notions de machine learning, de deep learning et de réseaux de neurones, les use cases qui y sont associées et à déterminer si ce phénomène est davantage un risque ou une opportunité.

 

I-Qu’est-ce que le machine learning ?

 

a-Apprentissage automatique, auto-amélioration des systèmes et Big Data

 

Le Machine Learning ou apprentissage automatique, champ d’étude de l’intelligence artificielle, concerne la conception, l’analyse, le développement et l’implémentation de méthodes permettant à une machine d’évoluer par un processus systématique. Il consiste à apprendre, en tirant des prévisions de fonctionnement ou de comportement, à partir de masses de données gigantesques. Il aboutit à la mise en place de programmes informatiques qui n’auraient jamais pu être écrits en passant par de l’algorithmique classique. On écrit des programmes à partir de ce que l’on a retiré de l’observation des données et qui permettent de faire la même chose.

 

Aprentissage1

 Ecole Centrale de Nantes, Veille en TIC

Le Machine Learning est, selon Nicolas Glady, titulaire de la chaire Accenture Strategic Business Analytics de l’ESSEC, la « mise en œuvre systématique du principe du Chien de Pavlov ». Si un robot est mis au centre d’un labyrinthe à la recherche d’un objet et que son comportement est positif, la machine est « récompensée » et la méthode « gagnante » est renforcée. A l’inverse, tant que le comportement n’est pas jugé satisfaisant, la machine peut être « punie » et l’algorithme « continuera à chercher ».
A force d’essais et d’erreurs, la machine pourra alors déterminer la manière systématique d’arriver à son objectif, et apprendre une façon de faire, c’est-à-dire un modèle.
La difficulté réside dans le fait que l’ensemble de tous les comportements, compte tenu de toutes les entrées possibles, devient rapidement trop complexe à décrire dans les langages de programmation disponibles. On confie donc à des programmes le soin d‘ajuster un modèle permettant de simplifier cette complexité et de l’utiliser de manière opérationnelle. De plus, ce modèle est adaptatif, de façon à prendre en compte l’évolution de la base des informations pour lesquelles les comportements en réponse ont été validés, ceci permet d‘auto-améliorer le système d’analyse ou de réponse, ce qui est une des formes que peut prendre l’intelligence artificielle.
Si le Machine Learning n’est pas un concept nouveau, avec l’avènement du Big Data, la disponibilité de données en très grands volumes (Réseaux sociaux, données de navigation web, mais aussi objets connectés…) et grâce à de récents progrès en mathématiques fondamentales comme en informatique distribuée (arrivée de plateformes open source d’algorithmes distribués comme Hadoop qui permettent une exploitation à grande échelle sur des milliers de noeuds), il est sur la voie de devenir indispensable au business.

 

b-Les algorithmes développés par le machine learning

 

L’ensemble des méthodes disponibles pour développer des algorithmes prédictifs est vaste. On peut utiliser des machines à vecteurs de support, du boosting, des réseaux de neurones, des arbres de décision, des régressions logistiques, des analyses discriminantes linéaires ou encore des algorithmes génétiques.
Il n’existe pas un algorithme universel capable de prédire un comportement. C’est pourquoi le data scientist doit adapter selon la prédiction qu’il cherche à réaliser. Par exemple, aujourd’hui, des graphes de données sont souvent utilisés. La théorie des graphes n’est pas récente. Néanmoins, auparavant, les graphes n’étaient pas liés à l’identification de communautés, aux réseaux sociaux. De plus, il n’existe pas de méthode qui permettrait de simuler des graphes réalistes d’une telle taille. De même en ce qui concerne les moteurs de recommandation et d’analyse des données de préférence des utilisateurs : leur principe n’est pas nouveau. Néanmoins, aujourd’hui, un internaute exprime ses préférences sur un nombre très important d’objets. Toutes les méthodes qui étaient basées sur une modélisation des lois sur les permutations ne sont pas scalables. De plus, les internautes n’expriment pas leur préférence sur les mêmes objets. Certains font un rating sur beaucoup d’objets, d’autres sur très peu. Les données sont très hétérogènes, très complexes. Il faut donc réfléchir aux bons modes de représentation.

 

c-Qu’est-ce que le deep learning ?

 

deeplearning

   Blog Re-work

 

Parmi les algorithmes de machine learning, le deep learning fait beaucoup parler de lui. Le deep learning (ou apprentissage profond) et les réseaux de neurones ne sont pourtant pas des approches totalement nouvelles mais n’ont pas connu de décollage dans les années 1980. A l’époque, l’interprétabilité des modèles était avant tout recherché. Or, aujourd’hui, les individus qui font du retargeting cherchent avant tout maximiser le taux de clic, et non à comprendre les règles sous-jacentes de la psychologie des internautes.
Pour un certain nombre d’applications, comme l‘analyse d’image, de son, de texte, le deep learning fournit d’excellents résultats. Il s’agit d’un modèle paramétrique avec beaucoup de réglages possibles : combien de nœuds va compter le réseau de neurones, de combien de couches sera-t-il constitué, quelle sera sa structure ?

 

d-Zoom sur les réseaux de neurones

 

Nerve cells firing, artworkInExcelsis

Un réseau de neurones artificiels est un modèle de calcul dont la conception est très schématiquement inspirée du fonctionnement des neurones biologiques.
Les réseaux de neurones, apprennent par l’expérience. Ils permettent d’inférer des comportements à partir de bases de données empiriques massives. Grâce à leur capacité de classification et de généralisation, les réseaux de neurones sont généralement utilisés dans des problèmes de nature statistique. Une banque peut, par exemple, créer un jeu de données sur les clients qui ont effectué un emprunt, constitué de leur revenu, de leur âge, du nombre d’enfants à charge et s’il s’agit d’un bon client. Si ce jeu de données est suffisamment grand, il peut être utilisé pour l’entraînement d’un réseau de neurones. La banque pourra alors présenter les caractéristiques d’un potentiel nouveau client, et le réseau répondra s’il sera bon client ou non, en généralisant à partir des cas qu’il connait.
Le réseau de neurones ne fournit pas toujours de règle exploitable par un humain. Le réseau fournit une réponse quand on lui présente une donnée, mais le réseau ne présente pas de justification facile à interpréter.
Les réseaux de neurones sont utilisés, par exemple :
• Pour la classification d’espèces animales par espèce, étant donnée une analyse ADN.
• Pour des estimations boursières sur l’apprentissage de la valeur d’une entreprise en fonction des indices disponibles (bénéfices, endettements à long et court terme, chiffre d’affaires, carnet de commandes, indications techniques de conjoncture).
• Modélisation de l’apprentissage et amélioration des techniques de l’enseignement.
• En météorologie, pour la classification de conditions atmosphériques et la prévision statistique du temps.
Les réseaux de neurones artificiels ont cependant besoin de cas réels servant d’exemples pour leur apprentissage, et ce d’autant plus nombreux que le problème est complexe et que sa topologie est peu structurée.

 

e-Quelles stratégies pour le « machine learning » ?

 

Pour prédire un phénomène, deux possibilités se présentent. La première consistera à comprendre ce mécanisme causal en élaborant un modèle explicatif. La seconde, utilisée dans le ML et en statistiques, cherche à découvrir des corrélations significatives dans un jeu d’observations, c’est-à-dire, trouver un modèle prédictif. Il existe deux stratégies principales pour y parvenir.
L’apprentissage supervisé
Imaginons qu’au sein d’une population nous observions une corrélation entre poids et taille des individus. Pour « apprendre » cette relation, et être en mesure de faire ultérieurement des prédictions du poids d’un individu, on procède en trois étapes.
(1) Il nous faut d’abord une représentation de nos prédictions selon deux axes « taille » et « poids ». Chaque droite correspond à une prédiction.
(2) Parmi ces prédictions, certaines sont meilleures que d’autres, il nous faut donc disposer d’une méthode d’évaluation. Dans notre exemple, une évaluation pourrait consister à additionner les « erreurs » commises sur chacun des individus, chacun d’elle étant interprétée comme la distance entre la droite et la valeur observée.
(3) Il nous faut enfin une stratégie d’optimisation qui nous permette de trouver la meilleure prédiction possible.
Ce triptyque « représentation, évaluation, optimisation » caractérise en réalité toutes les démarches d’apprentissages supervisées dans lesquelles on cherche à généraliser des associations connues.
Un exemple plus significatif de ML consiste par exemple à chercher à savoir si un emprunteur potentiel, dont on connait les revenus, l’âge et le taux d’épargne fait partie ou non des clients à risque. On cherche donc à prédire l’appartenance d’un individu à une catégorie plutôt qu’une caractéristique numérique, mais le principe reste le même.
• L’apprentissage non-supervisé ou clustering
Il s’agit pour un logiciel de diviser un groupe hétérogène de données, en sous-groupes de manière que les données considérées comme les plus similaires soient associées au sein d’un groupe homogène et qu’au contraire les données considérées comme différentes se retrouvent dans d’autres groupes distincts.
Cette méthode se distingue de l’apprentissage supervisé par le fait qu’il n’y a pas de sortie a priori.
Par exemple, dans le cadre d’une application CRM, l’on cherche à répartir un ensemble de prospects en niches dans un marché dont nous ignorons complètement la segmentation. Il s’agit cette fois de découvrir des structures cachées dans les données, d’associer les données vues comme similaires pour créer des groupes homogènes.

 

II-Le machine learning, une méthode aux multiples uses cases

 

a-Un secteur en constante expansion

 

savior

Savior

Si l’apprentissage automatisé n’est pas encore complètement sur le devant de la scène, le Machine Learning est une technologie clé pour l’extraction des données produites par le domaine industriel de l’IoT.
Nous commençons à générer tellement de données, plus fréquemment, venant de tellement de sources, que le machine learning devient nécessaire. Les algorithmes d’apprentissage automatique deviendront essentiels dans l’avenir, afin d’identifier les modèles importants de manière plus rapide et efficace.
Le potentiel du machine learning est très fort pour les compagnies industrielles, dans le domaine de la maintenance prédictive notamment.

 

b-Des uses cases très variés

 

Selon le MagIT (mai 2015), le machine learning va être une source de gain énorme pour les entreprises : ils vont pouvoir multiplier leur performance marketing par 10, la qualité de leur maintenance par 8 et réduire leurs risques financiers par 5, d’ici 2030.
Si aujourd’hui on parle énormément du machine learning, c’est essentiellement pour ses applications pour le web, notamment dans les systèmes de recommandation des sites marchands ou des jeux en ligne. Néanmoins, la technique est apparue bien avant, notamment pour la compression de données ou encore la visualisation de grandes quantités d’informations. L’analyse prédictive d’un panier d’achat d’un consommateur, la détection de fraude dans les transactions bancaires ou l’estimation du risque de non-remboursement d’un prêt en fonction du passé financier d’un demandeur de crédit, les technologies de reconnaissance de formes, celle des visages, la reconnaissance du langage naturel ou la traduction automatique, l’analyse des sentiments qui cherche à classer des documents selon la tonalité émotionnelle, relèvent toutes du Machine Learning.
Toutes ces applications ont en commun de n’utiliser aucun algorithme explicite pour parvenir à leur fin. L’approche par le ML fait le pari qu’il est possible de construire des systèmes autonomes que l’on pourra « éduquer » sur la base d’un corpus d’exemples pertinents.
Les cas d’application du machine learning sont multiples.
Tout d’abord, en marketing, l’objectif est une communication personnalisée et adaptée au mieux à chaque client. L’application la plus courante est la recherche d’un score estimé sur un échantillon de clientèle pour l’apprentissage puis extrapolé à l’ensemble en vue d’un objectif commercial :
-Appétence pour un nouveau produit financier : modélisation de la probabilité de posséder un bien (contrat d’assurance…) puis application à l’ensemble de la base. Les clients, pour lesquels le modèle prédit la possession de ce bien alors que ce n’est pas le cas, sont démarchés (télé marketing, publipostage ou mailing, phoning,…) prioritairement.
-Attrition : Les clients pour lesquels le risque prédit est le plus important reçoivent des incitations à rester.
-Risque pour l’attribution d’un crédit bancaire ou l’ouverture de certains contrats d’assurance ; risque de faillite d’entreprises

 

market

Grok

 

Ensuite, au niveau environnemental, l’objectif est, par exemple, de prévoir pour le lendemain les risques de dépassement de seuils de concentration d’ozone dans les agglomérations à partir de données observées : concentrations en 03, NO3, NO2… du jour, et d’autres prédites par Météo-France : température, vent… Le modèle apprend sur les dépassements observés afin de prévoir ceux à venir. Il s’agit d’un problème de régression : la variable à prévoir est une concentration mais elle peut aussi être considérée comme binaire : dépassement ou non d’un seuil. L’approche statistique vient améliorer cette prévision en modélisant les erreurs et en tenant compte d’observations de concentration d’oxyde et dioxyde d’azote, de vapeur d’eau, de la prévision de la température ainsi que de la force du vent.
De plus, les outils statistiques sont largement utilisés dans le domaine de la santé. Ils le sont systématiquement lors des essais cliniques dans un cadre législatif stricte mais aussi lors d’études épidémiologiques pour la recherche de facteurs de risques dans des grandes bases de données ou encore pour l’aide au diagnostic. Il s’agit, par exemple, de prévoir un diagnostic à partir de tests biologiques et d’examens élémentaires.

 

 

InteractionBiologieRoboticsV3b

Graz University of technology, Austria

 

En biologie, pour la sélection de gènes, les techniques de microbiologie permettent de mesurer simultanément l’expression de milliers de gènes dans des situations expérimentales différentes, par exemple entre des tissus sains et d’autres cancéreux. L’objectif est donc de déterminer quels gènes sont les plus susceptibles de participer aux réseaux de régulation mis en cause dans la pathologie ou autre phénomène étudié. Contrairement aux cas précédents pour lesquels des centaines voire des milliers d’individus peuvent être observés et participer à l’apprentissage, seuls quelques dizaines de tissus son analysés à cause essentiellement du prix et de la complexité d’une telle expérience. D’autres approches, d’autres techniques sont nécessaires pour pallier à l’insuffisance des méthodes classiques de discrimination.
On peut aussi donner l’exemple de l’industrie pharmaceutique où une stratégie classique consiste à tester un nombre considérable de molécules avant de ne synthétiser que celles jugées intéressantes pour passer aux étapes de recherche clinique in vitro puis in vivo. Une propriété thérapeutique d’un ensemble de molécules d’apprentissage (perméabilité de la paroi intestinale ou à la barrière sanguine du cerveau, adé-quation à une cible donnée…) étant connue, un grand ensemble de caractéristiques physico-chimiques sont évaluées, calculées par un logiciel spécifique : ce sont des données dites QSAR Quantitative structure-activity relationship. S’il est possible de prévoir la propriété thérapeutique à partir des caractéristiques physico-chimiques, ce modèle est systématiquement appliqué à un grand ensemble de molécules virtuelles ; c’est le criblage ou sreening virtuel de molécule.

 

III-Le machine learning : Risque ou opportunité ?

 

a-Les forces du machine learning : adaptabilité et précision

 

 

La première grande force du Machine Learning est de s’appliquer à toutes sortes de prédictions, de la médecine au marketing en passant par la conduite.
La deuxième grande force du Machine Learning est sa capacité à prédire mieux que la plupart des autres méthodes les comportements futurs. Quand on compare la précision des prédictions fournies, ces méthodes sont quasiment systématiquement en tête des classements par rapport aux techniques de statistiques « classiques ».
Leur précision est encore améliorée quand plusieurs algorithmes sont mis en parallèle et leurs prédictions comparées. Un des exemples les plus anciens est utilisé dans l’aviation : il est possible de faire atterrir un avion automatiquement à l’aide d’un ordinateur. Néanmoins, le problème est complexe donc on peut utiliser trois ordinateurs qui donnent chacun leur avis sur la meilleure façon d’atterrir et prendre le choix « le plus sûr ».

 

 

b-Le problème de la fiabilité et de la clarté des prédictions mettant en avant le pouvoir des statistiques classiques

 

Néanmoins, il existe un premier problème : les algorithmes se complexifiant, il ne devient rapidement plus possible pour un être humain de comprendre ce que fait l’ordinateur. On se retrouve alors face à une boite noire qu’il est impossible de déchiffrer.
Le problème est, de plus, renforcé si la prédiction donnée par la boite noire n’est pas fiable.
La seconde problématique à laquelle est confronté le machine learning vient de leur adaptabilité. Puisque ces méthodes peuvent toujours trouver des liens entre deux événements, elles le feront même s’il n’y en a pas. C’est ce qu’on appelle le surapprentissage(overfitting).L’apprentissage automatique pourra toujours trouver des liens de causes à effet, même lorsqu’il n’existe pas.
La grande force des statistiques « classiques » est justement de comprendre quand on peut affirmer un point ou quand l’incertitude est trop grande pour que la statistique (moyenne, tendance, etc.) soit fiable. La variance est un outil qui structure les statistiques classiques et qui permet d’évaluer la fiabilité d’un modèle.

 

c-Les outils statistiques comme contrôles du Machine Learning

 

 

stat

Doc Player

Depuis quelques années, les chercheurs en apprentissage automatique cherche à intégrer les outils statistiques au corpus du Machine Learning, par exemple en utilisant des méthodes de ré-échantillonnage afin de réduire l’erreur sur les prédictions obtenues.
La seconde force des statistiques est de nous éclairer sur les phénomènes observés. A un niveau stratégique ou décisionnelle, il est souvent plus important d’identifier les tenants et les aboutissants d’un phénomène, que de pouvoir prédire son futur sans pouvoir le changer du fait d’une non-compréhension des problématiques.

 

d-Le machine learning de demain

 

MachineLearningMarketing

BostInno

Le ML se concentre sur la question de comment faire en sorte que les ordinateurs se programment eux-mêmes (à partir de l’expérience, plus une structure initiale). D’autres domaines, de la biologie à l’économie, se posent également la question de savoir comment les systèmes peuvent s’adapter automatiquement à leur environnement, et le ML sera probablement amené à échanger des idées avec l’ensemble de ces domaines au cours des années à venir.
Dans un futur où l’automatisation est amenée à se développer, avec plusieurs pétaoctets de données à traduire en informations exploitables, le rôle de l’homme et celui de la machine vont devenir de plus en plus distincts, celui qui se dessine pour les hommes sera d’améliorer les systèmes d’apprentissage automatique.
Avec l’aide des humains, l’apprentissage automatique annonce la fin de la programmation informatique telle que nous la connaissons. Aujourd’hui, les programmes informatiques servent à automatiser les actions. Mais, pour modifier le comportement ces programmes, la présence d’un ingénieur logiciel est requise. Grâce à l’apprentissage automatique, le comportement du programme s’améliore automatiquement, l’homme l’aidant à distinguer les bonnes actions des mauvaises.
L’apprentissage automatique s’apprête donc à révolutionner et à démocratiser la programmation informatique traditionnelle : les machines seront parfaitement capables de le faire elles-mêmes à partir de ce qu’elles auront appris.
Les consommateurs pourront ainsi être mis en relation avec des services d’assistance qui connaissent et anticipent leurs besoins. Ces agents virtuels sont proactifs : ils savent à quel moment s’adresser à l’utilisateur si un problème surgit et peuvent adapter leur discours selon le niveau de compétence et la personnalité de l’interlocuteur.
Si les machines étaient capables d’appliquer l’apprentissage automatique au domaine de la programmation, cela conduirait à une automatisation totale de ce dernier. Dès lors, il nous suffirait de communiquer nos nouvelles idées à la machine pour les voir prendre forme automatiquement.
Pour comprendre les problèmes, les programmes automatisés s’appuieront donc toujours sur l’analyse des données, supervisée par les hommes.
Concevoir des agents virtuels pour répondre aux besoins du quotidien contribue ainsi à un nouveau modèle économique.

 

 

Ainsi, le Machine Learning permet une adaptabilité à toutes sortes de use cases (marketing, supply chain, maintenance …) et fournit des prédictions plus précises. Les statistiques s’associent de plus en plus aux techniques de machine learning afin de renforcer la fiabilité des analyses et d’apporter une hauteur aux résultats obtenus.
De plus, le machine learning constitue, de plus en plus, la tendance de fond des organisations. Cela s’explique majoritairement par la volonté des entreprises de mieux connaître ses clients, de prédire davantage les risques, de réduire les erreurs commises par les modèles statistiques utilisés jusqu’à présent. Les potentialités du machine learning sont immenses et concerneront bientôt l’Internet des Objets connectés, la prédiction de nos accidents domestiques, de nos activités notamment.
Enfin, la machine ne fera pas disparaître l’homme : les hommes seront indispensables pour réaliser ses analyses et ses prédictions puisqu’ils permettront de répondre aux problématiques clients qui ne peuvent pas toujours être considérés par les machines.

 

 

Sources :

-JDN
-MagIT
-Angel.co
-Machine Learning contre statistiques « classiques » : qui remportera le match ?
Silicon.fr
-Wikipedia sur apprentissage automatique et réseaux de neurones

 

1 thought on “Vous avez dit machine learning?

Les commentaires sont fermés.