
「CERVO Deep EPYC シリーズ」は、深層学習(Deep Learning)での計算に特化した学技術計算向けに設計された HPC 専用ワークステーションです。ディープ・ラーニング(深層学習)向けに最適化された OS(Ubuntu 18.04 LTS)、フレームワーク、ライブラリをあらかじめインストールしており、深層学習を意識した専用モデルとなります。
ディープラーニング(深層学習)は、人工知能(AI)を効率的に学習させる、機械学習の手法のひとつです。従来の機械学習手法より高い能力を発揮するとして、研究や商業利用に向けた動きが活発となっており、音声認識や画像認識、画像生成、自然言語処理等、ロボティクス、 あらゆる分野で最先端かつ重要なテクノロジーを支えています。ディープラーニングに使用される GPU は、大規模・高度な計算処理に優れ、超人的な速度、精度、規模で学習するトレーニングマシンには欠かせないものです。ビッグデータを実行可能な知識に変える高いパフォーマンスを発揮します。
高い性能と耐久性を求められる HPC 製品は、お客様が安心してご利用いただけるように、自社品質基準をクリアした部材のみを採用し、企画から製造までを自社工場(福岡市)で一貫して行っています。
また、部材供給メーカーや国内正規代理店とも定期的な品質ミーティングを行い、安定した製品のご提供はもちろんのこと、継続的な品質向上に努めています。万が一、製品が故障した場合でも、より迅速で確実な修理対応を可能にするために、製造工場に隣接するサービス部門と連携した修理体制を整えています。
Ubuntu 18.04 動作検証済
面倒なセットアップなどが不要。初めての方でも安心

オペレーティング・システムには、Ubuntu 18.04 LTS を採用しています。Ubuntu は、セキュリティに配慮して設計されています。長期サポート(LTS)版を利用すれば、5 年間に渡りセキュリティアップデート提供され、利用するために追加の費用は必要ありません。
ここ数年、AI(人工知能)がブームとなっており、AI 関連のソフトウェアは多くがオープンソースとして公開されています。それらを解説する書籍や Web サイトにも事欠きません。書籍などと環境を合わせて Ubuntu を導入することで、無用なトラブルによる時間の無駄を回避できるはずです。
NVIDIA A100 の第 3 世代 Tensor コア と Tensor Float (TF32) 精度を利用することで、前世代と比較して最大 20 倍のパフォーマンスがコードを変更することなく得られ、Automatic Mixed Precision (AMP) と FP16 の活用でさらに 2 倍の高速化が可能になります。第 3 世代 NVIDIA® NVLink®、NVIDIA NVSwitch™、PCI Gen4、NVIDIA Mellanox InfiniBand、NVIDIA Magnum IO ソフトウェア SDK の組み合わせで、数千単位の A100 GPU まで拡張できます。拡張することで、BERT のような大型の AI モデルを 1,024 個の A100 からなるクラスターでわずか 37 分でトレーニングできます。このパフォーマンスとスケーラビリティには前例がありません。トレーニングにおける NVIDIA の優位性は MLPerf 0.6 で実証されました。これは業界全体で使える初の AI トレーニング向けベンチマークです。
統合開発環境動作検証済
インストール済み開発環境とフレームワーク、ライブラリ

インストールしたばかりの OS に Deep Learning 用のセットアップを 1 から行うのは非常に時間と手間のかかる作業です。また、フレームワークやライブラリのバージョンの違いによって正常に動作しない場合もあり、可能な限り最新のものを使いつつ整合性の取れた組み合わせでセットアップを行うのは至難の業です。
出荷時にディープラーニング環境を構築済みなので、届いたその日から研究・開発に着手することが可能です。付属のシステムマニュアルには、代表的なフレームワーク・ライブラリのサンプル・プログラムの動作確認手順も記載されているので、ディープラーニングが初めての方にも安心です。
NVIDIA A100 の第 3 世代 Tensor コア と Tensor Float (TF32) 精度を利用することで、前世代と比較して最大 20 倍のパフォーマンスがコードを変更することなく得られ、Automatic Mixed Precision (AMP) と FP16 の活用でさらに 2 倍の高速化が可能になります。第 3 世代 NVIDIA® NVLink®、NVIDIA NVSwitch™、PCI Gen4、NVIDIA Mellanox InfiniBand、NVIDIA Magnum IO ソフトウェア SDK の組み合わせで、数千単位の A100 GPU まで拡張できます。拡張することで、BERT のような大型の AI モデルを 1,024 個の A100 からなるクラスターでわずか 37 分でトレーニングできます。このパフォーマンスとスケーラビリティには前例がありません。トレーニングにおける NVIDIA の優位性は MLPerf 0.6 で実証されました。これは業界全体で使える初の AI トレーニング向けベンチマークです。
NVIDIA® Quadro RTX™ グラフィック・ボード

「NVIDIA® Quadro RTX™ プロフェッショナル・グラフィック・ボード」は、ハードウェアベースの新しい専用のレイトレーシングエンジンを搭載した世界初のレイトレーシング GPU は、リアルタイムのレイトレーシングを可能にする業界初のグラフィックスプロセッサです。物理的に正確な影、反射、および屈折を持つ複雑なプロフェッショナルモデルをレンダリングし、リアルタイムに結果を得ることができます。NVIDIA OptiX、Microsoft DXR、Vulcan ray tracing などの API を活用したアプリケーションと連携し、インタラクティブなデザインワークフローを提供し、これまでにない高い生産性をもたらします。
また、INT8 と新しい 2 つの INT4、INT1(バイナリ)の精度モードに加えて、FP16/FP32 マトリックス演算を高速化する強化された Tensor Core が含まれています。独立した浮動小数点および整数データパスにより、計算とアドレッシングの計算を組み合わせて作業負荷をより効率的に実行できます。
別売り HB NVLink ブリッジを利用して 2 枚の NVIDIA® Quadro RTX™ 5000~8000 を接続することで、更に大規模なレンダリング、AI、仮想現実、ビジュアリゼーションの負荷に対応できます。また、RT Core / Tensor Core を搭載し Deep Learning やリアルタイムレイトレーシングにおいて独立したコアを使用します。
深層学習向けワークステーション「CERVO Deep EPYC-Q シリーズ」
AMD EYPC & NVIDIA® Quadro® 搭載
販売価格15,823,500円(税込)
販売価格1,320,000円(税込)
販売価格1,969,000円(税込)
NVIDIA® A100 グラフィック・ボード

NVIDIA A100 Tensor コア GPU によるあらゆるスケールでの前例のない高速化をもって、世界で最も困難な計算に AI、データ分析、 HPC で挑むことができます。NVIDIA データ センター プラットフォームのエンジン A100 は、数千単位の GPU に効果的に拡張できます。あるいは、NVIDIA マルチインスタンス GPU (MIG) テクノロジを利用し、7 個の GPU インスタンスに分割し、あらゆるサイズのワークロードを加速できます。また、第 3 世代 Tensor コアでは、多様なワークロードであらゆる精度が高速化され、洞察を得るまでの時間と製品を市場に届けるまでの時間が短縮されます。
ハードウェア、ネットワーキング、ソフトウェア、ライブラリ、最適化された AI モデル、 NGC™ のアプリケーションにわたる構成要素を組み込んだ NVIDIA の完全データ センター ソリューション スタックの一部です。データ センター向けとして最もパワフルな AI/HPC 用エンドツーエンド プラットフォームであり、研究者は現実世界で成果をもたらし、ソリューションを大規模な運用環境に展開できます。
NVIDIA A100 の第 3 世代 Tensor コア と Tensor Float (TF32) 精度を利用することで、前世代と比較して最大 20 倍のパフォーマンスがコードを変更することなく得られ、Automatic Mixed Precision (AMP) と FP16 の活用でさらに 2 倍の高速化が可能になります。第 3 世代 NVIDIA® NVLink®、NVIDIA NVSwitch™、PCI Gen4、NVIDIA Mellanox InfiniBand、NVIDIA Magnum IO ソフトウェア SDK の組み合わせで、数千単位の A100 GPU まで拡張できます。拡張することで、BERT のような大型の AI モデルを 1,024 個の A100 からなるクラスターでわずか 37 分でトレーニングできます。このパフォーマンスとスケーラビリティには前例がありません。トレーニングにおける NVIDIA の優位性は MLPerf 0.6 で実証されました。これは業界全体で使える初の AI トレーニング向けベンチマークです。
深層学習向けワークステーション「CERVO Deep EPYC-A シリーズ」
AMD EYPC & NVIDIA® A100 搭載
販売価格23,023,000円(税込)
販売価格4,568,960円(税込)
NVIDIA® GeForce RTX™ グラフィック・ボード

「NVIDIA® GeForce RTX™ 3090」は、前世代の「TITAN」クラスのパフォーマンスを備えた巨大で獰猛なGPUです。NVIDIA の第 2 世代 RTX アーキテクチャ Ampere を採用し、改良されたレイトレーシングコア、Tensor コア、新ストリーミングマルチプロセッサにより、レイトレーシングと AI のパフォーマンスを強化しています。
また、PCI Express の最新世代「PCI Express 4.0(PCIe 4.0)」を採用し、1 レーンあたり 16Gbps(2GB/s)の転送レートを実現しており、従来の PCIe 3.0(8Gbps)の 2 倍に達しています。
深層学習向けワークステーション「CERVO Deep EPYC-G シリーズ」
AMD EYPC & NVIDIA® GeForce® 搭載
販売価格1,212,200円(税込)
HPC 製品 導入実績一覧
- 旭川大学
- 北見工業大学
- 北海道工業大学
- 北海道大学
- 青森大学
- 仙台大学
- 東北大学
- 東北工業大学
- 芝浦工業大学
- 横浜国立大学
- 千葉工業大学
- 筑波大学
- 東海大学
- 首都大学東京
- 上智大学
- 東京工科大学
- 東京大学
- 東京理科大学
- 日本工業大学
- 日本大学
- 東京工業大学
- 愛知工業大学
- 愛知大学
- 金沢工業大学
- 金沢大学
- 明治大学
- 静岡理工科大学
- 富山大学
- 福井工業大学
- 福井大学
- 静岡大学
- 名古屋工業大学
- 名古屋大学
- 京都大学
- 大阪大学
- 北陸先端科学技術
大学院大学 - 和歌山大学
- 立命館大学
- 大阪工業大学
- 近畿大学
- 奈良先端科学技術
大学院大学 - 岡山大学
- 広島大学
- 岡山理科大学
- 広島工業大学
- 関西学院大学
- 香川大学
- 愛媛大学
- 高知大学
- 高知工科大学
- 九州大学
- 九州工業大学
- 佐賀大学
- 熊本大学
- 大分大学
- 宮崎大学
- 鹿児島大学
- 久留米工業大学
- 福岡大学
- 福岡工業大学