Nvidiaの圧倒的な支配権に挑む「GenAI」– 最新MLPerf Inferenceベンチマークの衝撃결果!

0
Spread the love
  • MLPerf Inferenceベンチマーク4.0の結果に新しい驚きはなし
  • NVIDIAはH100とH200で顕著な成績を示す
  • Intel CPUはアクセラレーターとして唯一の参加
  • 新参加のJuniper Networksがネットワークの重要性を強調

MLPerfの最新ベンチマークであるバージョン4.0において、特段の驚きは報告されていません。
新たに加わったワークロードにLlama 2とStable Diffusion XLがありますが、技術の急速な進歩にMLPerfが対応し続けていることが示されています。

NVIDIAはH100とH200を披露し、特に目立った結果を残しています。
また、QualcommのCloud AI 100 Ultra(プレビューカテゴリー)とIntel/HabanaのGaudi 2は成績向上を見せました

今回、アクセラレーターとしてのCPUに注目すべき点があり、その中でIntelの参加が唯一の存在となっています。
初参加のJuniper Networksは、ネットワークの役割の重要さを示す結果を出しました。

さらに、Red HatとSupermicroの連携や、新たな提出者としてWiwynnが名を連ねており、業界の関心の幅広さが伺えます。
提出組織数は以前の年と安定しており、今回は23の組織が参加しています。

NVIDIAのデータセンター収入の40%が推論からとのデータも注目されており、推論が重要なビジネス領域になっていることが強調されています。

結論的に、MLPerfは2018年の立ち上げ以来、アクセラレーター市場において重要な指標となってきましたが、その過程で少々興奮が減退しているかもしれません。
しかしながら、これは特定のユースケースに合わせたシステム比較に非常に有用です。

MLCommonsのデイビッド・カンターは、異なるシステムを比較する際には詳細なデータに注目する必要があると述べています。

icon image

てか、推論って何? MLPerfってどんな意味があるの?

推論とはね、AIが学習したことを使って、新しいデータに対して予測や判断をすることなの。MLPerfというのはAIシステムの性能を測るための基準で、どのAIが速く正確に仕事をこなせるかを比ぼれるのよ。

icon image
icon image

MLPerfの新しいベンチマークが出たって話だね。
今回のバージョン4.0には、Llama 2やStable Diffusion XLっていう新しいワークロードが加わっていて、NVIDIAのチップ、H100とかH200がかなりいいパフォーマンスを見せたってわけ。

そうだね、推論というのはまさにアヤカが言った通りで、AIが新しい情報に遭遇したときの判断力を指すんだ。
MLPerfはその推論能力を客観的に評価する基準を提供していて、業界の発展に合わせて進化し続けてるんだよ。

あとね、今回のベンチマークにはIntelなんかがCPUをアクセラレーターとして持ち込んで、それが唯一の参加だったり、新しくJuniper Networksが加わってネットワークの性能がどれだけ大事かを示したりしているんだ。

でも、ちょっとした問題があって、ベンチマーク自体に新しい驚きはないって言われてるんだよね。
でも、NVIDIAのデータセンターの収入が推論から40%来てるって話もあるから、推論の技術がビジネスにめちゃくちゃ重要だってことを忘れちゃいけない。

結局、MLPerfはいろんなAIシステムを比べるのにとっても役に立つから、細かいデータに目を光らせておかないとね。

Please follow and like us:
Pin Share

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

RSS
Follow by Email