Big Data et Intelligence Artificielle: Enjeux et challenges

0
2453

L’intelligence artificielle (IA) est  née dans les années 1950, mais elle n’a été bien acceptée que lors du deuxième boom de l’IA dans les années 1980.

La recherche a mis en évidence des systèmes experts, avec de fortes tentatives d’introduire l’IA dans l’exploitation de l’usine. Mais les ordinateurs de cette époque étaient trop primitifs en termes de calcul, de capacité de mémoire et de transmission.

De leur côté, les algorithmes étaient embryonnaires et ne servaient que dans des applications restreintes. Avec des résultats insatisfaisants, le soi-disant «hiver de l’IA» a commencé à la fin des années 80 et a duré un certain temps.

Grâce au développement du Big Data et des technologies d’apprentissage en profondeur, le troisième boom de l’IA a commencé en 2010.

En mars 2016, AlphaGo, un programme informatique écrit pour jouer à Go, bat le meilleur joueur humain du monde, attirant l’attention de tous. Ce développement rapide a été réalisé grâce aux progrès du matériel et des algorithmes.

C’est quoi l’Intelligence Artificielle (Définition) ?

L’intelligence artificielle est une branche de l’informatique. Au sein de cette branche, nous trouvons un ensemble d’algorithmes, de recettes mathématiques et logiques qui tentent de simuler des comportements intelligents.

Il existe plusieurs domaines au sein de l’intelligence artificielle: tenter de traiter le langage, reconnaître et analyser des images, prédire à partir de données, segmenter certaines sources d’informations, etc.

L’essence de l’intelligence artificielle est sa capacité à faire des généralisations en temps opportun, sur une base de données limitées.

Ainsi, plus le champ d’application est large, plus les conclusions seront tirées rapidement avec un minimum de données et le comportement sera plus intelligent.

L’analogie, en tout cas, peut être appliquée au fait que l’intelligence artificielle, dans sa génération actuelle, est capable d’apprendre de différentes expériences (apprentissage automatique), comme c’est le cas avec l’intelligence humaine.

L’intelligence artificielle et le Big Data !

L’intelligence artificielle et le Big Data ont marqué un nouveau point dans tous les domaines de la connaissance.

Il a été souligné comment les technologies élargissent les horizons et doivent faire face à des défis législatifs et éthiques, parmi lesquels l’incorporation des connaissances dans les décisions.

L’intelligence artificielle avait déjà révolutionné de nombreux secteurs et généré différents modèles commerciaux.

L’intelligence artificielle permet d’automatiser les processus existants et de générer de nouvelles solutions qui tirent parti de la grande quantité de données disponibles qu’il est impossible de traiter manuellement, rendant ainsi possible l’adoption à grande échelle de solutions technologiques pour la gestion de tout système.

Le Big Data et l’IA sont les prochaines disruptions numériques

L’intelligence artificielle et la science des données impliquent la collecte, l’analyse et la collecte de grands ensembles de données, mais elles ont des objectifs différents.

L’intelligence artificielle se concentre sur la manière dont les équipes informatiques peuvent prendre des décisions basées sur des données.

La science des données, quant à elle, se concentre sur l’utilisation des mathématiques, des statistiques et de l’apprentissage automatique pour extraire des informations à partir de données.

Les défis à relever pour le Big Data et l’intelligence artificielle ?

A mesure que l’utilisation de l’IA se développait dans de nombreux domaines, certains défis sont apparus.

Le premier est un problème inhérent à l’IA: le manque d’explication. Dans l’analyse de segmentation et de régression, IA apprend d’abord les variables explicatives ainsi que les variables cibles en tant que données d’apprentissage et crée un modèle.

Lorsque de nouvelles données (variables explicatives) sont fournies, IA utilise ce modèle pour renvoyer les variables cibles correspondantes.

L’AI n’explique généralement pas comment elle est arrivée à cette conclusion. Bien sûr, aucune raison détaillée n’est nécessaire, mais normalement les opérateurs humains n’accepteront pas de réponse s’ils ne sont pas convaincus.

Ceci est très valable en termes de fonctionnement de l’usine. Même si l’IA recommande un fonctionnement optimal, les opérateurs humains ne suivent pas aveuglément la recommandation à moins qu’elle ne soit présentée avec des raisons claires.

Les chercheurs en IA ont pris cela très au sérieux et travaillent sur une IA explicable, mais des résultats satisfaisants font toujours défaut.

Le deuxième défi est la rareté des données. Alors qu’il semblerait qu’il existe de grandes quantités de données opérationnelles qui sont accumulées et disponibles dans une usine, la réalité est que les usines de traitement fonctionnent dans un état stable et les données opérationnelles fluctuent dans une plage étroite, de sorte que les données stockées ne reflètent pas toujours conditions de fonctionnement différentes.

Les échantillons de formation pour les situations anormales sont essentiels lors de la construction d’un système de détection et de diagnostic des défauts, mais ils ne sont pas encore disponibles.

En outre, certaines variables importantes sont rarement mesurées car la plupart des variables mesurées sont destinées au contrôle et non à la maintenance.

De plus, de nombreuses données, telles que celles liées à la qualité des produits, sont échantillonnées par des opérateurs humains lors d’un nombre limité de contrôles. Par conséquent, les données clés sont étonnamment rares.

Une solution consiste à utiliser des modèles physiques et des simulateurs, qui peuvent générer des données même dans des domaines où aucune donnée n’a été obtenue, permettant la mise en œuvre des méthodes d’IA existantes.

Une autre solution consiste à se tourner vers la technologie de l’IA. Aujourd’hui, la modélisation et l’apprentissage par transfert de données rares sont activement étudiés pour surmonter la rareté des données.

Le troisième défi est de savoir comment vous assurer que vous avez des personnes qualifiées. Même les informaticiens ne peuvent pas utiliser pleinement les données sans avoir des connaissances approfondies en ingénierie.

Des résultats utiles ne peuvent être obtenus que lorsque les personnes familiarisées avec le processus peuvent en apprendre davantage sur l’IA et ensuite seulement s’attaquer aux vrais problèmes.

Au début, ceux qui connaissent bien l’essence de la chose seront en mesure de faire la distinction entre ce qui peut et ne peut pas être fait, puis de faire face au processus.

Réflexion…

Alors que près de 60 ans se sont écoulés depuis que l’exploitation de l’usine et l’informatique ont commencé à se mélanger, il était difficile de combiner l’informatique (IT) et la technologie opérationnelle (OT) car elles ont évolué de manière indépendante.

Grâce au développement de l’IIoT, il est désormais plus facile de réunir les deux technologies pour former des systèmes cyber-physiques (CPS). Le rôle de l’informatique deviendra de plus en plus important à mesure que l’IA progressera.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici