Développement et implémentation sur des architectures embarquées des techniques de commande et de surveillance des systèmes industriels

Equipe impliquée

 

 

  width=   Nom du responsable du projet :
       Bouzrara Kais - Professeur
Nom des enseignants-chercheurs impliqués Grade
 Abdelkader Mbarek  Maître de conférences
 Abdelkader Krifa  Maître de conférences
 Ben Mabrouk Walid  Maître Assistant
 Maraoui Saber   Maître Assistant

 

Nom des doctorants à mobiliser dans le cadre du projet 

Ibtissem Ben Gharat

Rochdi Kerkeni

Talel Tajouri 

El Wavi Sidi Abdallah

 

 

Résumé et objectifs

  Le thème étudié concerne principalement l’exploitation des nouvelles solutions technologiques pour implémenter des algorithmes de commande et de surveillance des systèmes industriels autour d’un environnement matériel basé sur un FPGA (Field Programmable Gate Array).

Les systèmes embarqués sont devenus incontournable dans notre vie quotidienne.  Ils touchent plusieurs domaines d’applications comme le transport, l’automobile, la santé, la biologie, l’environnement,  l’énergie, l’électronique  grand  public,  la  sécurité  (biométrie,  carte  à  puce),  la  communication  sans  fil,  les  technologies  de l’information, l’aérospatial,  etc. C’est un domaine de recherche en plein expansion. En effet, pour répondre aux besoins du temps réel, d'un grand nombre d'applications de traitement du signal,  de commande numérique et de surveillance, des solutions d’implémentations matérielles sur des plateformes reconfigurables de type FPGA sont de plus en plus utilisées. Les FPGA présentent beaucoup de perspectives pour l’implantation d’algorithmes en temps réel.

Les concepteurs des systèmes de commande modernes s’investissent, de plus en plus, dans le contrôle de projets en associant plusieurs disciplines et technologies. En plus des solutions programmables à base de processeurs, des microcontrôleurs et des DSP, la logique programmable des FPGA permet l'intégration de la circuiterie numérique de commande dans les systèmes automatisés et particulièrement la commande en temps réel des processus. La complexité croissante des algorithmes de commande des systèmes ne cesse d’augmenter à cause des contraintes liées aux modèles (non-linéarité, couplage, variation de paramètres, etc.) et d’autres contraintes liées aux performances (temps d’exécution, précision, etc.). Motivé par les exigences grandissantes en puissance de traitement et afin de répondre aux exigences strictes concernant les performances exigeantes en puissance de calcul, les FPGA représentent une alternative pour compenser les DSP qui sont devenus classiques avec une grande souplesse et de bonnes performances (parallélisme de traitement, vitesse, surface, consommation, etc.).

Les architectures électroniques citées ci-dessus seront exploités pour l’implémentation des algorithmes de commande et de surveillance des systèmes industriels. Le domaine de la surveillance des systèmes industriels (tels que les systèmes électriques et chimiques) est essentiel pour assurer un fonctionnement sûr dans des circonstances typiques et améliorer la qualité des produits de ces systèmes. Un défaut est tout écart non autorisé d'au moins un paramètre ou d'une variable de procédé dans l'installation. Ainsi, il est nécessaire d'utiliser des méthodes de surveillance de processus pour détecter les défauts et pour réserver les processus dans un état sécurisé et fiable. La détection des défauts, le diagnostic et le pronostic sont les principales phases de la surveillance des processus. L’étape de détection vise à déterminer l'existence d'un défaut dans le système, l’étape de diagnostic vise à déterminer quel défaut s'est produit et le pronostic de défaut vise à prédire le comportement futur de l'anomalie du processus.  La détection et le diagnostic des défauts sont deux domaines de recherche importants qui ont attiré une grande attention dans les domaines académique et industriel.

    En général, la surveillance des processus peut être effectuée en utilisant deux catégories principales: les techniques basées sur des modèles et les techniques basées sur l’analyse statistique des données. Pour les méthodes basées sur des modèles, leur principe est généralement basé sur un test de cohérence entre un comportement de processus observé fourni par les capteurs et un comportement attendu fourni par un modèle de processus mathématique, qui est généralement dérivé en utilisant une compréhension fondamentale (utilisant des principes physiques et chimiques) du processus sous conditions sans défaut. La comparaison entre les mesures du processus réel et les prédictions issues du modèle du processus fournit une quantité, appelée résidu, qui sera utilisée pour déterminer si le processus est dans un état normal ou non. Lorsque les résidus sont nuls ou proches de zéro, le processus surveillé se trouve dans des conditions de fonctionnement normales. Alors que, lorsque les résidus se sont considérablement écartés de zéro, le processus surveillé est dans des conditions de fonctionnement défectueuses. Cependant, ces méthodes dépendent de l’adéquation du modèle mathématique pour décrire correctement les comportements du système. De plus, une modélisation précise et détaillée des processus industriels est de plus en plus difficile compte tenu du grand nombre de paramètres et de la complexité croissante de ces processus. Parfois, ces méthodes présentent une description insuffisante des opérations de processus.

    Les techniques à base des données sont basées sur des données historiques collectées lors d'opérations de processus sans défaut. L’idée principale de ces techniques est d'utiliser les données d'apprentissage pour construire un modèle empirique, qui est ensuite utilisé pour détecter les défauts en exploitant les données de mesures futures. Les méthodes basées sur les données sont largement appliquées dans l'industrie et elles sont divisées en deux groupes principaux : les méthodes statistiques et non statistiques. Les approches statistiques incluent des méthodes traditionnelles de contrôle statistique des processus (SPC) comme la moyenne, la variance, l'asymétrie, le kurtosis, etc. qui sont des méthodes d'analyse statistique univariée. Cependant, les méthodes SPC manquent souvent les modèles sous-jacents dans les données de processus. Pour surmonter ces inconvénients, des méthodes de contrôle de processus statistique multivarié avancé (MSPC) sont étudiées. Les méthodes MSPC ont suscité un intérêt significatif au cours des deux dernières décennies. En outre, MSPC est devenu plus fiable pour FDD en abordant des défis tels que la corrélation temporelle, la haute dimensionnalité, la non-linéarité, la non-gaussianité, etc.

Le thème étudié concerne principalement l’exploitation des nouvelles solutions technologiques pour implémenter des algorithmes de commande et de surveillance des systèmes industriels autour d’un environnement matériel basé sur un FPGA (Field Programmable Gate Array).

Les systèmes embarqués sont devenus incontournable dans notre vie quotidienne.  Ils touchent plusieurs domaines d’applications comme le transport, l’automobile, la santé, la biologie, l’environnement,  l’énergie, l’électronique  grand  public,  la  sécurité  (biométrie,  carte  à  puce),  la  communication  sans  fil,  les  technologies  de l’information, l’aérospatial,  etc. C’est un domaine de recherche en plein expansion. En effet, pour répondre aux besoins du temps réel, d'un grand nombre d'applications de traitement du signal,  de commande numérique et de surveillance, des solutions d’implémentations matérielles sur des plateformes reconfigurables de type FPGA sont de plus en plus utilisées. Les FPGA présentent beaucoup de perspectives pour l’implantation d’algorithmes en temps réel.

Les concepteurs des systèmes de commande modernes s’investissent, de plus en plus, dans le contrôle de projets en associant plusieurs disciplines et technologies. En plus des solutions programmables à base de processeurs, des microcontrôleurs et des DSP, la logique programmable des FPGA permet l'intégration de la circuiterie numérique de commande dans les systèmes automatisés et particulièrement la commande en temps réel des processus. La complexité croissante des algorithmes de commande des systèmes ne cesse d’augmenter à cause des contraintes liées aux modèles (non-linéarité, couplage, variation de paramètres, etc.) et d’autres contraintes liées aux performances (temps d’exécution, précision, etc.). Motivé par les exigences grandissantes en puissance de traitement et afin de répondre aux exigences strictes concernant les performances exigeantes en puissance de calcul, les FPGA représentent une alternative pour compenser les DSP qui sont devenus classiques avec une grande souplesse et de bonnes performances (parallélisme de traitement, vitesse, surface, consommation, etc.).

 

Les architectures électroniques citées ci-dessus seront exploités pour l’implémentation des algorithmes de commande et de surveillance des systèmes industriels. Le domaine de la surveillance des systèmes industriels (tels que les systèmes électriques et chimiques) est essentiel pour assurer un fonctionnement sûr dans des circonstances typiques et améliorer la qualité des produits de ces systèmes. Un défaut est tout écart non autorisé d'au moins un paramètre ou d'une variable de procédé dans l'installation. Ainsi, il est nécessaire d'utiliser des méthodes de surveillance de processus pour détecter les défauts et pour réserver les processus dans un état sécurisé et fiable. La détection des défauts, le diagnostic et le pronostic sont les principales phases de la surveillance des processus. L’étape de détection vise à déterminer l'existence d'un défaut dans le système, l’étape de diagnostic vise à déterminer quel défaut s'est produit et le pronostic de défaut vise à prédire le comportement futur de l'anomalie du processus.  La détection et le diagnostic des défauts sont deux domaines de recherche importants qui ont attiré une grande attention dans les domaines académique et industriel.

    En général, la surveillance des processus peut être effectuée en utilisant deux catégories principales: les techniques basées sur des modèles et les techniques basées sur l’analyse statistique des données. Pour les méthodes basées sur des modèles, leur principe est généralement basé sur un test de cohérence entre un comportement de processus observé fourni par les capteurs et un comportement attendu fourni par un modèle de processus mathématique, qui est généralement dérivé en utilisant une compréhension fondamentale (utilisant des principes physiques et chimiques) du processus sous conditions sans défaut. La comparaison entre les mesures du processus réel et les prédictions issues du modèle du processus fournit une quantité, appelée résidu, qui sera utilisée pour déterminer si le processus est dans un état normal ou non. Lorsque les résidus sont nuls ou proches de zéro, le processus surveillé se trouve dans des conditions de fonctionnement normales. Alors que, lorsque les résidus se sont considérablement écartés de zéro, le processus surveillé est dans des conditions de fonctionnement défectueuses. Cependant, ces méthodes dépendent de l’adéquation du modèle mathématique pour décrire correctement les comportements du système. De plus, une modélisation précise et détaillée des processus industriels est de plus en plus difficile compte tenu du grand nombre de paramètres et de la complexité croissante de ces processus. Parfois, ces méthodes présentent une description insuffisante des opérations de processus.

    Les techniques à base des données sont basées sur des données historiques collectées lors d'opérations de processus sans défaut. L’idée principale de ces techniques est d'utiliser les données d'apprentissage pour construire un modèle empirique, qui est ensuite utilisé pour détecter les défauts en exploitant les données de mesures futures. Les méthodes basées sur les données sont largement appliquées dans l'industrie et elles sont divisées en deux groupes principaux : les méthodes statistiques et non statistiques. Les approches statistiques incluent des méthodes traditionnelles de contrôle statistique des processus (SPC) comme la moyenne, la variance, l'asymétrie, le kurtosis, etc. qui sont des méthodes d'analyse statistique univariée. Cependant, les méthodes SPC manquent souvent les modèles sous-jacents dans les données de processus. Pour surmonter ces inconvénients, des méthodes de contrôle de processus statistique multivarié avancé (MSPC) sont étudiées. Les méthodes MSPC ont suscité un intérêt significatif au cours des deux dernières décennies. En outre, MSPC est devenu plus fiable pour FDD en abordant des défis tels que la corrélation temporelle, la haute dimensionnalité, la non-linéarité, la non-gaussianité, etc.

Programme et méthodologie de recherche

L’équipe travaillant sur ce thème d’implémentation sur les architectures d’électronique embarquée développe en première étape les algorithmes de commande et de surveillance des systèmes industriels et les valider par simulation numérique. Dans une deuxième étape ces algorithmes seront optimisés afin de les implémenter dans des architectures embarquées.

  • Développement des méthodes de détection statistique des défauts en utilisant des approches basées sur la technique d'analyse en composantes principales à noyau réduite (RKPCA). Les méthodes RKPCA proposées visent à réduire le nombre d'observations dans la matrice de données en sélectionnant uniquement les échantillons les plus pertinents. Ces méthodes permettent de réduire la complexité de calcul vis-à-vis les méthodes KPCA classique. Afin d'améliorer encore les performances de la méthode RKPCA, une représentation multi-échelles des données est utilisée. De plus, une méthode statistique de détection pondérée optimisée qui minimise conjointement la fausse alarme et les taux de détection manqués est proposée.
  • Pour traiter les incertitudes du modèle, les méthodes basées sur le RKPCA sont étendues aux données à valeurs d'intervalle dans le but d'obtenir une plus grande précision et robustesse pour ces incertitudes.
  • Pour la phase de détection et de diagnostic des pannes (FDD), des techniques améliorées d'apprentissage automatique basées sur les données sont proposées. Les techniques FDD développées se composent de deux étapes principales : l'extraction et la sélection de caractéristiques (FES) et la classification des défauts (FC). Dans l'étape FES, l'objectif est d'extraire les fonctionnalités les plus pertinentes et les plus efficaces des données. Différentes stratégies basées sur l'extraction de caractéristiques en utilisant des méthodes RKPCA sont développées. Une fois les caractéristiques extraites, seules les caractéristiques les plus pertinentes doivent être sélectionnés. A ce propos, des méthodes statistiques multivariées et des mesures statistiques sont utilisées. Pendant la phase FC, les entités sélectionnées sont transmises à un classificateur « Random Forest »  (RF).
  • Des approches FDD basées sur des valeurs d'intervalle sont développées afin de gérer les incertitudes dans les systèmes. La faisabilité et l'efficacité des approches de détection et de diagnostic proposées sont évaluées dans des conditions de fonctionnement normales et défectueuses. Sur la base de la simulation et des résultats expérimentaux, les techniques développées sont efficaces en termes de temps de calcul et de métriques de diagnostic.
  • Implémentation des principaux algorithmes développés sur des FPGA et leur validation expérimentale