ソウルマシンが次世代AIエンジンを刺激
Published on 12 May 2022
Soul Machines の Human OS テクノロジーは、カスタマイズされたサービスに革命をもたらします。同社は、消費者とのスムーズなやり取りを実現する AI ベースの Digital PeopleTM を制作することで、サービス部門を民主化することを目指しています。Soul Computers は、機械学習や AI モデルをトレーニングするために、メモリや計算の制限のない強力なマシンを必要としています。
同社は、HP Z8 G4 ワークステーションと Nvidia Rapids ソフトウェア パッケージを採用し、1 台のワークステーションで動作する機械学習チャットボットである Facebook の BlenderBot の社内バージョンなどの大規模なモデルへの道を開きました。
人間と機械の協力のメリット
Soul Machines は、超リアルな CGI と自律アニメーションを融合して、人間のようなインタラクションを実現し、グローバルなマーケティング エクスペリエンスを実現する Digital PeopleTM を開発しました。「Soul Machines は、サービス業界の民主化を支援するために Digital People を構築したいと考えています」と、ソフトウェアおよびテクノロジー担当副社長の Shane Blackett 氏は述べています。
サンフランシスコとニュージーランドのオークランドに拠点を置く Soul Machines は、エンドユーザーの満足を求める先見の明のある顧客と連携しています。「私たちは、デジタル パーソン、ユーザー、サイト コンテンツが 3 者間で共存する、さらに先へ進みたいと考えています」と Blackett 氏は説明します。「私たちは、デジタル パーソン向けのスケーラブルなプラットフォームを構築し、忠実度とリアリティを高める AI ベースのシミュレーションを行っています。」
Soul Machines の Human OS プラットフォームには、人間と機械の連携を可能にする特許取得済みのデジタル ブレインが搭載されています。同社は AI、機械学習、その他の複雑なアルゴリズムを使用しています。Soul Machines は金融機関や消費財企業にサービスを提供しています。日本では、世界的な CPG 企業のデジタル パーソンがオンラインで日本語と英語で化粧品を販売しています。
デジタル ペルソナは、学習、感知、行動を識別するモデルを実行します。AI ベースおよび機械学習モデルをトレーニングして操作し、画像を生成するには、大量の CPU、ビデオ メモリ、グラフィックスが必要です。HP の Z8 ワークステーション。Soul Machines のシニア R&D ソフトウェア エンジニアである Alireza Nejati 氏は、チームのトレーニング モデルはメモリに制限があると述べています。「GPU メモリは、私たちにとって大きな動機でした。」
メモリ駆動
ニュージーランドがCOVID-19に対処し始めたのは、ソウル・マシーンズが2020年初頭にHP Z8を選んだときでした。ネジャティ氏のスタッフは、同社がIT業務を国外に移転したため、ワークステーションを利用できるのは6月まで待たなければなりませんでした。「Z8は当社で最もパワフルなマシンです」とネジャティ氏は付け加えます。メモリ要件のせいでどのシステムでも実行できなかった複数のモデルを実行できるようになりました。
彼は、Z8 の構成可能性、デュアル Xeon Gold CPU、最大 3TB の DDR5 ECC メモリ、高速ストレージ用の 4 つの NVMe M.2 ポート、および 2 つの RTX 8000 グラフィック カードを使用した最大 96 GB の GPU RAM について言及しています。Z8 の Intel® OptaneTM DC パーシステント メモリは、大規模で複雑なデータ セットの処理に役立ちます。
Soul Machines は、Z8 を手動でサーバーとして運用していました。同社は、リソースをより適切に管理するために、z8 に同梱されている Nvidia Rapids ソフトウェア ライブラリを使用していました。Soul Machines が HP Z8 でトレーニングした最大のモデルは、Facebook の BlenderBot でした。これは、選択されたデータセットを使用してさまざまなソースからのオンライン ディスカッションでトレーニングされたオープン ドメイン チャットボットです。BlenderBot には 90 億のパラメーターが含まれていますが、これは一部の機械学習モデルよりも少ない数です。
Nejati 氏は、1 つのシステムでモデルをトレーニングするのは困難で、96 GB のビデオ メモリが必要であると考えています。「50 GB は無理です。」モデルが小さかったときは、1 つの GPU で 1 つのモデルをトレーニングできました。「最近のモデルは非常に大きいため、モデルの 1 つのインスタンスでも多数の GPU に分散する必要があります」と Nejati 氏は説明します。GPU が複数のコンピューター上にある場合、ソフトウェア エンジニアリングは困難になります。モデルは順番に実行されるため、異なる GPU にモデルを正しく分散させる必要があります。
Whitepapers Online でのみ公開されている、Soul Machine Stokes の次世代 AI エンジンについて詳しく知るには、Intel のホワイトペーパーをダウンロードしてください。