Il existe différents type d'intelligences artificielles, elles sont différentes par leurs manière de fonctionner et donc leurs capacités à répondre à des taches précises.
Elle peut être modélisé par un système expert ( ce sont des logiciels qui cherchent à simuler la pensée d'un expert ).
Un système expert est composé de 3 parties:
Les système experts sont donc capables de résoudre des problèmes. La Base de règles rassemble de nombreuses connaissances sur un thème précis. Les règles fonctionnent sur le principe de raisonnement logique:
Si X (fait ou prémisse) ALORS Y (Conclusion)
Exemple: SI un animal a 6 pattes, ALORS c'est un insecte.
Le système expert fonctionne donc ainsi. Si le fait (ou prémisse) respecte une règle, alors une conclusion est donnée. Il faut donc respecter la cohérence des règles, pour éviter les incohérences. Les faits et les règles sont mis en relation par le moteur d'inférence, fonctionnant selon 3 chaînages, c'est à dire 3 raisonnements:
Les systèmes experts sont utilisés dans le monde de l'entreprise, pour résoudre des problèmes et aider à prendre des décisions. Ils ont aussi leur place dans le domaine de la médecine, et aident les médecins dans leurs choix.
Néanmoins, la connaissance du corps humains n'est pas complète, ce qui limite l'utilisation des systèmes experts dans ce domaine.
En 1949, Donald Hebb crée une règle permettant de doter les neurones formels d'un système d'apprentissage, et donc d'une mémoire. L'apprentissage Hebbien est décrit dans son ouvrage The organization of Behavior, paru en 1949
"When an axon of cell A is near enough to excite B and repeatedly or persistently takes part in firing it, some growth process or metabolic change takes place in one or both cells such that A’s efficiency, as one of the cells firing B, is increased" (The Organization of Behavior) Cette phrase explique le principe du synapse de Hebb, permettant l'apprentissage. Les synapses sont les zones de contacts entre deux neurones, permettant leur connexion. Selon cette règle, lorsque deux neurones connectés par un synapse sont activés simultanément, la force du synapse augmente. Ainsi, l'activation de l'un par l'autre sera simplifiée à l'avenir, grâce à ces connexions renforcées.
L'IA forte est associée à la robotique, et donc aux robots : "Appareil effectuant, grâce à un système de commande automatique à base de micro-processeur, une tâche précise pour laquelle il a été conçu dans le domaine industriel, scientifique ou domestique" (définition de l'ATILF). Les robots dotés d'une IA forte et de réseaux de neurones artificiels seraient donc capables, en plus d'avoir un cerveau proche de celui des humains, de "s'auto-programmer". Elle auraient donc la capacité de s'adapter à des situations, et d'évoluer grâce à un système d'apprentissage. Ce programme générateur est appelé "IA germe" par Serge Boisse, chercheur français. La création d'un tel type d'Intelligence artificielle est complexe. Tout d'abord, le nombre de lignes de programme est énorme, estimé à plusieurs centaines de millions. Une des formes de la conception d'une IA forte serait un rassemblement de plusieurs "boîtes", correspondant aux différents niveaux du fonctionnement de l'esprit (concept, pensée, délibération, buts et conscience globale...), qui correspondent donc aux réseaux de neurones artificiels, programmés dans un but précis. Ces "boîtes" pourraient être décomposées en sous-systèmes, destinés à résoudre un problème en particulier. Ce concept d'IA germe pourrait aider à créer une IA forte, concept qui semble impossible de nos jours. Néanmoins, la création d'une IA forte, et donc d'un robot capable de pensée, de réflexion émet de nombreux problèmes:
De plus, une machine dotée de la capacité de penser pourrait être difficile à contrôler par les humains. Serge Boisse et Eliezer Yudkowsk estiment qu'une IA germe "jeune" aurait une compréhension du monde semblable à un enfant de 6 ans, quelques mois plus tard celle d'un adulte et deviendrait quelques heures plus tard la première super-intelligence.
Le concept d'IA forte est donc encore à l'état de recherche de nos jours, aucune machine n'est encore capable d'avoir une intelligence semblable à l'intelligence humaine. Les idées concernant l'IA germe et le système d'apprentissage, d'auto-programmation est donc une représentation de l'IA forte à étudier.
Un réseau de neurones artificiels ou Neural Network est un système informatique s’inspirant du fonctionnement du cerveau humain pour apprendre.
Les reseaux neuronaux sont massivement utilisé dans la machine learning et donc le deep learning (sous-branche du machine learning ). Pour comprendre le fonctionnement d’un réseau de neurones (artificiel), imaginez plusieurs couches, avec des connexions entre elles. Chaque couche peut correspondre à une tâche, et chaque neurone a une mission bien précise.
Dans le cas où l’on veut savoir si une image représente un feu tricolore, on doit dire s’il y a trois ronds pour les lumières, si la forme générale est rectangulaire, si une des lumières est allumée en vert orange ou rouge, si la taille correspond, etc. Chacun de ces attributs est évalué, avec un taux de certitude. En passant chaque couche, et en associant les résultats, le réseau est capable de livrer un taux de certitude. Exemple : à 97% c’est un feu tricolore, à 12% ce sont des LEGO, à 5% on voit des boutons de chemise.
À la fin, le réseau est informé s’il a vu juste ou non.
Au départ, le réseau se trompe, beaucoup, vraiment beaucoup. À force de confronter ses résultats avec la réalité, à force de voir différentes images, il apprend. Que le feu de signalisation soit à l’horizontale, que l’image soit en noir et blanc, qu’il y ait une pluie battante, ou qu’il fasse nuit, il l’identifiera de mieux en mieux.
Input layer correspond a l'entrée, comme par exemple l'oeil sur l'homme. Chaque rond correspond à un neurone, un rectangle bleu à un "layer" qui correspond à une couche. En règle générale, un réseau de neurones repose sur un grand nombre de processeurs opérant en parallèle et organisés en tiers. Ainsi, les informations de l'entrée est envoyée à chaque neuronnes de la première couche. Chaques neurones traitent l'information et renvoient une nouvelle information à chaque neurones de la deuxième couche. Et ainsi de suite si il y a plusieurs couches de neurones. Puis, à la derniere couche, chaque neurones envoie une information à la sortie, "output", et donne ainsi un resultat.
Il existe trois types d'apprentissage:
L’objectif d’un sondage ou d’une enquête de nature statistique est de connaître la proportion de la population étudiée qui choisira d’effectuer une action prédéfinie. Pour ce faire, et parce qu’il est souvent impossible de sonder une population tout entière, on interroge une petite portion de cette dernière. Le but recherché dans ce cas est d’extrapoler à l’échelle de la population tout entière des résultats qui n’auront été obtenus que relativement au petit nombre d’individus effectivement interrogés.
Ce procédé s’illustre de façon bien connue dans les sondages d’opinion qui précèdent les élections. Or, il arrive que les modèles employés lors de ces enquêtes présentent des résultats éloignés de la réalité, à l’image de la plupart des prévisions parues en France avant les primaires de la droite et du centre organisées en novembre 2016, qui donnaient Alain Juppé gagnant devant Nicolas Sarkozy, et loin devant François Fillon, alors que ce fut finalement François Fillon qui l’emporta le 20 novembre avec un très net avantage.
La méthode la plus utilisée pour les enquêtes d’opinion est celle des sondages par quotas (ou stratification), qui présume que deux sondés ayant assez de caractéristiques en commun peuvent être échangés.
Le sondeur fait alors une hypothèse sur le nombre total d’individus appartenant à chaque classe de la population, puis sonde un certain nombre de ces personnes avant de généraliser le résultat à toute la classe et de lui appliquer une pondération proportionnelle au nombre total d’individus de la classe.
La principale cause de ces écarts se trouve dans le modèle statistique utilisé, et, donc, dans le choix des individus interrogés et de la pondération qui leur est associée. En effet, le nombre de sondés présents dans l’échantillon étant généralement restreint, quelques erreurs de répartition dans les quotas peuvent entraîner de très grandes différences dans les estimations. Il est donc nécessaire d’être très précautionneux lors du choix des classes et des individus à sonder.
Le Machine Learning, est une intelligence artificielle permettant à la machine de produire des estimations ou des prévisions dont la performance dépendra donc des données rencontrées et de son nombre ( comme vu au dessus ). Plus l’algorithme rencontre d’observations, plus il s’améliorera et gagnera en précision. Si l’on reprend l’exemple du dé à 6 faces, la démarche consistera cette fois à lancer le dé un certain nombre de fois, puis à calculer une probabilité empirique (c'est-à-dire expérimentale) pour chaque résultat. Plus le nombre de lancers de la phase d’apprentissage sera élevé, meilleurs seront les résultats, et fiable seront les modèle statistiques.
Si elles sont utilisées à bon escient, ces méthodes d’estimation ( manuel ou avec IA ) permettent une très nette amélioration de la performance de l’entreprise. Elles ont en effet des applications très variées et sont même indispensables dans certains secteurs. Les domaines qui utilisent le plus ces algorithmes sont notamment :
La modélisation statistique et le Machine Learning ne remplacent pas l’approche métier et doivent être utilisés avec attention, mais ce sont de véritables leviers de performance et faire appel à ces méthodes peut permettre à la fois une meilleure compréhension de la situation de son entreprise et une exploitation optimale de ses données.