Soul Machine impulsa motores de inteligencia artificial de última generación
Published on 12 May 2022
La tecnología Human OS de Soul Machines revoluciona el servicio personalizado. La empresa pretende democratizar el sector de servicios mediante la producción de Digital PeopleTM basados en IA para lograr interacciones fluidas con los consumidores. Soul Computers necesita máquinas potentes sin límites de memoria o computación para entrenar modelos de IA y aprendizaje automático.
La empresa empleó la estación de trabajo HP Z8 G4 con el paquete de software Nvidia Rapids para sentar las bases para modelos enormes como una versión interna de BlenderBot de Facebook, un chatbot de aprendizaje automático en una estación de trabajo.
Beneficios de la cooperación hombre-máquina
Soul Machines creó Digital PeopleTM fusionando CGI hiperrealista y animación autónoma para crear interacciones similares a las humanas para experiencias de marketing global. “Soul Machines quiere crear Digital People para ayudar a democratizar la industria de servicios”, dice Shane Blackett, vicepresidente de software y tecnología.
Soul Machines, con sede en San Francisco y Auckland (Nueva Zelanda), trabaja con clientes visionarios que buscan usuarios finales felices. “Queremos ir más allá, donde la persona digital, el usuario y el contenido del sitio coexistan en una interacción tripartita”, explica Blackett. “Estamos construyendo una plataforma escalable para personas digitales y realizando una simulación basada en inteligencia artificial para agregar fidelidad y realismo”.
La plataforma Human OS de Soul Machines cuenta con un cerebro digital patentado que permite la cooperación entre humanos y máquinas. La empresa utiliza inteligencia artificial, aprendizaje automático y otros algoritmos complejos. Soul Machines presta servicios a instituciones financieras y empresas de productos de consumo. Una persona digital de una empresa mundial de productos de consumo masivo en Japón vende cosméticos en japonés e inglés en línea.
Las personas digitales ejecutan modelos que identifican el aprendizaje, la detección y el comportamiento. Para entrenar y operar modelos de aprendizaje automático y basados en IA y generar imágenes se necesita una gran cantidad de CPU, memoria de video y gráficos. Estación de trabajo Z8 de HP. Alireza Nejati, ingeniero sénior de software de I+D en Soul Machines, dice que los modelos de entrenamiento de su equipo tienen una memoria limitada. "La memoria de la GPU fue una gran motivación para nosotros".
Impulsado por la memoria
Nueva Zelanda adoptó la COVID-19 cuando Soul Machines eligió la HP Z8 a principios de 2020. El personal de Nejati tuvo que esperar hasta junio para utilizar la estación de trabajo después de que la corporación transfiriera sus operaciones de TI al exterior. "La Z8 es nuestra máquina más potente", añade Nejati. Nos permitió ejecutar varios modelos, lo que no sería posible en ningún sistema debido a los requisitos de memoria.
Menciona la capacidad de configuración del Z8, las CPU Dual Xeon Gold, hasta 3 TB de memoria DDR5 ECC, 4 puertos NVMe M.2 para almacenamiento de alta velocidad y hasta 96 GB de RAM de GPU utilizando dos tarjetas gráficas RTX 8000. La memoria persistente Intel® OptaneTM DC del Z8 ayuda con conjuntos de datos grandes y complicados.
Soul Machines ejecutó el Z8 manualmente como servidor. La empresa utilizó las bibliotecas de software Nvidia Rapids incluidas con el z8 para administrar mejor los recursos. El modelo más grande de Soul Machines entrenado previamente en el HP Z8 fue BlenderBot de Facebook, un chatbot de dominio abierto entrenado en discusiones en línea a partir de diversas fuentes utilizando conjuntos de datos seleccionados. Si bien BlenderBot contiene 9 mil millones de parámetros, menos que algunos modelos de aprendizaje automático.
Nejati cree que entrenar el modelo en un sistema es difícil y requiere 96 GB de memoria de video. "No se pueden hacer 50 gigabytes". Cuando los modelos eran más pequeños, una sola GPU podía entrenar uno. "Los modelos modernos son tan grandes que incluso una instancia del modelo debe distribuirse en varias GPU", explica Nejati. Cuando las GPU están en varias computadoras, la ingeniería de software se vuelve difícil. Debe distribuir correctamente el modelo en diferentes GPU, ya que se ejecuta secuencialmente.
Descargue el informe técnico de Intel para obtener más información sobre los motores de inteligencia artificial de próxima generación de Soul Machine Stokes solo en Whitepapers Online.