Soul Machine alimente les moteurs d'IA de nouvelle génération

Published on 12 May 2022

Soul Machine, moteurs d'IA

La technologie Human OS de Soul Machines révolutionne le service personnalisé. L'entreprise entend démocratiser le secteur des services en produisant des Digital PeopleTM basés sur l'IA pour des interactions fluides avec les consommateurs. Soul Computers a besoin de machines puissantes sans limites de mémoire ou de calcul pour entraîner les modèles d'apprentissage automatique et d'IA.

L'entreprise a utilisé la station de travail HP Z8 G4 avec le logiciel Nvidia Rapids pour ouvrir la voie à des modèles volumineux comme une version interne de BlenderBot de Facebook, un chatbot d'apprentissage automatique sur une station de travail.

Les avantages de la coopération homme-machine

Soul Machines a créé Digital PeopleTM en combinant des images de synthèse hyperréalistes et une animation autonome pour créer des interactions de type humain pour des expériences marketing mondiales. « Soul Machines souhaite créer Digital People pour contribuer à démocratiser le secteur des services », déclare Shane Blackett, vice-président des logiciels et de la technologie.

Soul Machines, basée à San Francisco et Auckland, en Nouvelle-Zélande, travaille avec des clients visionnaires qui recherchent des utilisateurs finaux satisfaits. « Nous voulons aller plus loin, là où la personne numérique, l'utilisateur et le contenu du site coexistent dans une interaction à trois », explique Blackett. « Nous construisons une plateforme évolutive pour Digital People et effectuons une simulation basée sur l'IA pour ajouter de la fidélité et du réalisme. »

La plateforme Human OS de Soul Machines est dotée d'un cerveau numérique breveté qui permet la coopération homme-machine. L'entreprise utilise l'IA, l'apprentissage automatique et d'autres algorithmes complexes. Soul Machines sert les institutions financières et les entreprises de produits de consommation. Une personne numérique pour un CPG mondial au Japon vend des cosmétiques en japonais et en anglais en ligne.

Les personnages numériques exécutent des modèles qui identifient l'apprentissage, la détection et le comportement. Former et exploiter des modèles basés sur l'IA et l'apprentissage automatique et générer des images nécessite beaucoup de CPU, de mémoire vidéo et de graphiques. La station de travail Z8 de HP. Alireza Nejati, ingénieur logiciel senior en recherche et développement chez Soul Machines, explique que les modèles de formation de son équipe sont limités en mémoire. « La mémoire du GPU a été une énorme motivation pour nous »

Alimenté par la mémoire

La Nouvelle-Zélande a adopté la COVID-19 lorsque Soul Machines a choisi le HP Z8 début 2020. Le personnel de Nejati a dû attendre jusqu'en juin pour utiliser le poste de travail après que l'entreprise a transféré ses opérations informatiques à l'extérieur. « Le Z8 est notre machine la plus puissante », ajoute Nejati. Il nous a permis d'exécuter plusieurs modèles, ce qui n'aurait pas été possible sur aucun système en raison des besoins en mémoire.

Il mentionne la configurabilité du Z8, les processeurs Dual Xeon Gold, jusqu'à 3 To de mémoire DDR5 ECC, 4 ports NVMe M.2 pour un stockage à grande vitesse et jusqu'à 96 Go de RAM GPU utilisant deux cartes graphiques RTX 8000. La mémoire persistante Intel® OptaneTM DC du Z8 aide à gérer les ensembles de données volumineux et complexes.

Soul Machines a fait fonctionner le Z8 manuellement comme un serveur. L'entreprise a utilisé les bibliothèques logicielles Nvidia Rapids fournies avec le z8 pour mieux gérer les ressources. Le plus grand modèle de Soul Machines précédemment formé sur le HP Z8 était BlenderBot de Facebook, un chatbot à domaine ouvert formé aux discussions en ligne à partir de diverses sources à l'aide d'ensembles de données sélectionnés. BlenderBot contient 9 milliards de paramètres, soit moins que certains modèles d'apprentissage automatique.

Nejati estime que l'entraînement du modèle sur un seul système est difficile et nécessite 96 Go de mémoire vidéo. « On ne peut pas faire 50 gigaoctets. » Lorsque les modèles étaient plus petits, un seul GPU pouvait en entraîner un. « Les modèles modernes sont si énormes que même une seule instance du modèle doit être distribuée sur plusieurs GPU », explique Nejati. Lorsque les GPU sont sur plusieurs ordinateurs, l'ingénierie logicielle devient difficile. Vous devez répartir correctement le modèle sur différents GPU car il s'exécute de manière séquentielle.



Téléchargez le livre blanc d'Intel pour en savoir plus sur les moteurs d'IA de nouvelle génération de Soul Machine Stokes uniquement sur Whitepapers Online.

Icon
THANK YOU

You will receive an email with a download link. To access the link, please check your inbox or spam folder