Les tâches lourdes dans la fabrication, la logistique d'usine et la robotique bénéficient de l'aide de l'IA en temps réel, selon le discours d'ouverture du PDG de NVIDIA, Jensen Huang, au GTC 2024.

Une approche axée sur la simulation ouvre la voie à la prochaine phase d'automatisation dans ces industries qui impliquent souvent des produits volumineux, des équipements coûteux, des environnements robotiques collaboratifs et des installations logistiques complexes.

Huang a démontré comment les développeurs pouvaient utiliser des jumeaux numériques pour développer, tester et affiner leur IA en temps réel à grande échelle entièrement par simulation avant de la déployer dans une infrastructure industrielle, ce qui permettrait d'économiser beaucoup de temps et d'argent. Les plateformes Omniverse, Metropolis, Isaac et cuOpt de NVIDIA interagissent dans des « gymnases d'IA » où les développeurs peuvent former des agents d'IA pour aider les robots et les humains à naviguer dans des situations imprévisibles ou complexes.

Dans une démonstration, le jumeau numérique d'un entrepôt de 100 000 pieds carrés construit avec Omniverse fonctionnait comme un environnement de simulation. Il comprenait des dizaines de travailleurs du numérique, plusieurs robots mobiles autonomes (AMR) exécutant la pile multicapteurs de NVIDIA Isaac, des agents d'IA de vision et des capteurs. Metropolis a créé une carte d'occupation centralisée en fusionnant les données de 100 flux de caméras simulés pour informer les itinéraires AMR optimaux calculés par l'IA d'optimisation de routage complexe de cuOpt.

Tout cela s'est produit en temps réel pendant qu'Isaac Mission Control coordonnait la flotte AMR à l'aide des données de cartographie et de routage de cuOpt. Lorsqu'un incident bloquait le chemin d'un AMR, Metropolis mettait à jour la grille d'occupation, cuOpt planifiait un nouvel itinéraire optimal et l'AMR réagissait en conséquence pour minimiser les temps d'arrêt.

À l'aide des modèles de vision Metropolis et du framework Visual Insight Agent, les développeurs peuvent créer des agents IA pour aider les opérations à répondre à des questions telles que « Que s'est-il passé dans l'allée trois ? avec des informations issues de l’analyse vidéo. Ces agents visuels d’IA aideront les industries à extraire des informations exploitables de la vidéo en utilisant le langage naturel.

Les capacités d'IA démontrées sont améliorées grâce à une formation continue par simulation et déployées sous forme de microservices d'inférence NVIDIA modulaires, conduisant à la prochaine phase de l'automatisation industrielle alimentée par l'IA en temps réel.