Soul Machine befeuert KI-Engines der nächsten Generation

Published on 12 May 2022

Seelenmaschine, KI-Engines

Die Human OS-Technologie von Soul Machines revolutioniert den kundenspezifischen Service. Das Unternehmen beabsichtigt, den Dienstleistungssektor zu demokratisieren, indem es KI-basierte Digital PeopleTM für reibungslose Kundeninteraktionen entwickelt. Soul Computers benötigen leistungsstarke Maschinen ohne Speicher- oder Rechengrenzen, um maschinelles Lernen und KI-Modelle zu trainieren.

Das Unternehmen nutzte die HP Z8 G4-Workstation mit dem Nvidia Rapids-Softwarepaket, um den Weg für große Modelle zu ebnen, wie etwa eine interne Version von Facebooks BlenderBot, einem maschinell lernenden Chatbot auf einer Workstation.

Vorteile der Mensch-Maschine-Kooperation

Soul Machines hat Digital PeopleTM durch die Kombination hyperrealistischer CGI und autonomer Animation entwickelt, um menschenähnliche Interaktionen für globale Marketingerlebnisse zu schaffen. „Soul Machines möchte Digital People schaffen, um die Demokratisierung der Dienstleistungsbranche zu unterstützen“, sagt Shane Blackett, Vice President of Software and Technology.

Soul Machines mit Sitz in San Francisco und Auckland, Neuseeland, arbeitet mit visionären Kunden, die zufriedene Endbenutzer suchen. „Wir wollen noch weiter gehen, wo die digitale Person, der Benutzer und der Site-Inhalt in einer Drei-Wege-Interaktion koexistieren“, erklärt Blackett. „Wir konstruieren eine skalierbare Plattform für Digital People und führen eine KI-basierte Simulation durch, um Genauigkeit und Realismus zu erreichen.“

Die Human OS-Plattform von Soul Machines verfügt über ein patentiertes digitales Gehirn, das die Zusammenarbeit zwischen Mensch und Maschine ermöglicht. Das Unternehmen verwendet KI, maschinelles Lernen und andere komplizierte Algorithmen. Soul Machines bedient Finanzinstitute und Konsumgüterunternehmen. Eine digitale Person für ein weltweites Verbrauchsgüterunternehmen in Japan verkauft Kosmetika online auf Japanisch und Englisch.

Digitale Personas führen Modelle aus, die Lernen, Empfinden und Verhalten identifizieren. Um KI-basierte und maschinelle Lernmodelle zu trainieren und zu betreiben und Bilder zu generieren, sind viel CPU, Videospeicher und Grafik erforderlich. HPs Z8-Workstation. Alireza Nejati, Senior R&D Software Engineer bei Soul Machines, sagt, dass die Trainingsmodelle seines Teams speicherbeschränkt sind. „Der GPU-Speicher war für uns ein großer Ansporn“

Speicherbetrieben

Neuseeland wurde von COVID-19 erfasst, als Soul Machines sich Anfang 2020 für den HP Z8 entschied. Nejatis Mitarbeiter mussten bis Juni warten, bis sie die Workstation nutzen konnten, nachdem das Unternehmen seine IT-Abläufe nach draußen verlagert hatte. „Der Z8 ist unsere leistungsstärkste Maschine“, fügt Nejati hinzu. Er ermöglichte es uns, mehrere Modelle auszuführen, was aufgrund des Speicherbedarfs auf keinem System möglich wäre.

Er erwähnt die Konfigurierbarkeit des Z8, Dual Xeon Gold CPUs, bis zu 3 TB DDR5 ECC-Speicher, 4 NVMe M.2-Ports für Hochgeschwindigkeitsspeicher und bis zu 96 GB GPU RAM bei Verwendung von zwei RTX 8000-Grafikkarten. Der Intel® OptaneTM DC Persistent Memory des Z8 hilft bei großen, komplizierten Datensätzen.

Soul Machines betrieb den Z8 manuell als Server. Das Unternehmen nutzte die mit dem Z8 mitgelieferten Nvidia Rapids-Softwarebibliotheken, um die Ressourcen besser verwalten zu können. Das größte Modell von Soul Machines, das zuvor auf dem HP Z8 trainiert wurde, war Facebooks BlenderBot, ein Open-Domain-Chatbot, der anhand ausgewählter Datensätze in Online-Diskussionen aus verschiedenen Quellen trainiert wurde. BlenderBot enthält 9 Milliarden Parameter, weniger als einige Modelle des maschinellen Lernens.

Nejati glaubt, dass das Trainieren des Modells auf einem System schwierig ist und 96 GB Videospeicher erfordert. „50 Gigabyte reichen nicht.“ Als die Modelle noch kleiner waren, konnte eine einzige GPU ein Modell trainieren. „Moderne Modelle sind so groß, dass sogar eine Instanz des Modells auf mehrere GPUs verteilt werden muss“, erklärt Nejati. Wenn GPUs auf verschiedenen Computern laufen, wird die Softwareentwicklung schwierig. Sie müssen das Modell richtig auf verschiedene GPUs verteilen, da es sequentiell ausgeführt wird.



Laden Sie das Whitepaper von Intel herunter, um mehr über Soul Machine Stokes Next-Gen AI Engines exklusiv bei Whitepapers Online zu erfahren.

Icon
THANK YOU

You will receive an email with a download link. To access the link, please check your inbox or spam folder