fr

2 postes de doctorat en recherche au sein de «Systèmes d'IA explicables pour les applications critiques pour l'entreprise».

2 postes de doctorat en recherche au sein de «Systèmes d'IA explicables pour les applications critiques pour l'entreprise».

Norvège 01 févr. 2021
NTNU

NTNU

Université étatique, Parcourir ses opportunités similaires

DÉTAILS OPPORTUNITÉ

Récompense totale
0 $
Université étatique
Région
Pays hôte
Date limite
01 févr. 2021
Niveau d'études
Type d'opportunité
Spécialités
Financement d'opportunité
Financement complet
Pays éligibles
Cette opportunité est destiné à tous les pays
Région éligible
Toutes les régions

C'est NTNU

Chez NTNU, créer des connaissances pour un monde meilleur est la vision qui unit nos 7 400 employés et 42 000 étudiants.

Nous recherchons des employés dévoués pour nous rejoindre.

Vous trouverez plus d'informations sur le travail chez NTNU et le processus de candidature ici.



À propos de la position

L'IA explicable et le projet EXAIGON

Les récentes avancées rapides de l'intelligence artificielle (IA) promettent de multiples avantages pour la société dans un proche avenir. Les systèmes d'IA deviennent omniprésents et perturbateurs pour des secteurs tels que la santé, le transport, la fabrication, la robotique, la vente au détail, la banque et l'énergie. Selon une étude européenne récente, l'IA pourrait contribuer jusqu'à 13,3 billions d'euros à l'économie mondiale d'ici 2030; 5,6 billions d'euros provenant d'une productivité accrue et 7,73 billions d'euros d'opportunités liées à l'expérience client. Cependant, afin de rendre les systèmes d'IA déployables dans des environnements sociaux, des applications industrielles et commerciales critiques, plusieurs défis liés à leur fiabilité doivent être relevés en premier.

La plupart des avancées récentes de l'IA peuvent être attribuées au sous-domaine du Deep Learning (DL), basé sur les réseaux de neurones profonds (DNN), qui a été alimenté par la disponibilité d'une puissance de calcul élevée et de grands ensembles de données. L'apprentissage en profondeur a reçu une attention considérable en raison de ses performances de pointe, voire surhumaines, dans des tâches où les humains étaient considérés comme bien supérieurs aux machines, y compris la vision par ordinateur, le traitement du langage naturel, etc. Depuis 2013, Deep Mind a combiné la puissance de DL avec Reinforcement Learning (RL) pour développer des algorithmes capables d'apprendre à jouer à des jeux Atari à partir de pixels, de battre des champions humains au jeu de Go, de surpasser toutes les approches précédentes aux échecs et d'apprendre comment pour accomplir des tâches robotiques complexes. De même, la technologie DL a été utilisée en combinaison avec les réseaux bayésiens (BN), ce qui a abouti à des réseaux bayésiens profonds (DBN), un cadre qui augmente considérablement l'utilité de l'apprentissage automatique probabiliste. Malgré leurs performances impressionnantes, les modèles DL présentent des inconvénients, les plus importants étant le manque de transparence et d'interprétabilité, le manque de robustesse et l'incapacité de généraliser à des situations au-delà de leurs expériences passées. Ceux-ci sont difficiles à résoudre en raison de la nature de la boîte noire des DNN, qui finissent souvent par avoir des millions de paramètres, rendant ainsi le raisonnement derrière leurs prédictions incompréhensible même pour les experts humains. En outre, il est nécessaire de mieux comprendre les attentes sociétales et les éléments nécessaires pour garantir l'acceptation sociale de ces technologies.


L'IA explicable (XAI) vise à remédier à ces problèmes en développant des méthodes pour comprendre comment les modèles de boîte noire font leurs prédictions et quelles sont leurs limites. L'appel à de telles solutions émane de la communauté de la recherche, de l'industrie et des décideurs politiques de haut niveau, qui sont préoccupés par l'impact du déploiement de systèmes d'IA dans le monde réel en termes d'efficacité, de sécurité et de respect des droits de l'homme. Pour que XAI soit utile dans les environnements et applications critiques pour l'entreprise, il ne doit pas se limiter à la conception d'algorithmes car les experts qui comprennent le mieux les modèles de prise de décision ne sont pas en bonne position pour juger de l'utilité et de la structure des explications. Il est nécessaire d'améliorer la recherche XAI en incorporant des modèles sur la façon dont les gens comprennent les explications, et quand les explications sont suffisantes pour faire confiance à quelque chose ou à quelqu'un. Ces modèles ont été étudiés pendant de nombreuses années par des philosophes, des psychologues sociaux et cognitifs et des scientifiques cognitifs. Il devient évident que des contributions interdisciplinaires significatives sont nécessaires pour que les systèmes d'IA soient considérés comme suffisamment fiables pour un déploiement dans des environnements sociaux et des applications critiques pour l'entreprise.

Le projet EXAIGON (Systèmes d'IA explicables pour l'adoption progressive de l'industrie) (2020-2024) fournira des recherches et des compétences en s'appuyant sur XAI, y compris la conception d'algorithmes et le co-comportement homme-machine, pour répondre aux normes de la société et de l'industrie pour le déploiement de systèmes d'IA fiables dans les environnements sociaux et les applications stratégiques. L'extraction d'explications à partir de modèles de boîtes noires permettra la vérification du modèle, l'amélioration du modèle, l'apprentissage du modèle et la conformité à la législation.

EXAIGON vise à créer un écosystème XAI autour du Norwegian Open AI-Lab, comprenant des chercheurs ayant une expérience diversifiée et des liens étroits avec l'industrie. Le projet est soutenu par 7 acteurs clés de l'industrie en Norvège qui fourniront aux chercheurs des cas d'utilisation, y compris des données, des modèles et des connaissances d'experts. Tous les chercheurs impliqués travailleront en étroite collaboration les uns avec les autres, les partenaires de l'industrie et les chercheurs travaillant déjà sur des sujets pertinents à NTNU, maximisant ainsi l'impact et la pertinence du projet dans le monde réel.

Vous rapporterez au chef du département.


Autres organisations


Choisissez votre destination d'études


Choisissez le pays que vous souhaitez le visiter pour étudier gratuitement, travailler ou faire du bénévolat

Vous trouverez aussi


Mots clés


bourses doctorales 2024 Programme de doctorat Thèses de doctorat