現在位置:

CERVO Deep for Linux Type-DPXX 

ディープラーニング向けワークステーション(2CPU/4GPU対応) 

最短 20 営業日~出荷3 年間センドバック方式ハードウェア保証

ディープラーニング向けワークステーション(1CPU/3GPU対応)

オペレーティング・システム Ubuntu 18.04 LTS
フレームワーク CUDA10/Tensor Flow/Keras/Chainer for Linux
プロセッサー [2基] インテル® Xeon® Gold 5120 プロセッサー
メモリー 96GB (8GBx4) DDR4-2666 Registered-ECC
ストレージ 500GB SSD + 2TB 高耐久HDD
光学ドライブ DVD スーパーマルチ
ネットワーク [2ポート] ギガビット
グラフィック(描画) NVIDIA® Quadro® P620 2GB-GDDR5
グラフィック(計算) NVIDIA® Tesla® V100 16GB-HBM2
電源ユニット [冗長化] 2,200W/200V 80 Plus TITANIUM 認証

オンライン販売価格3,168,000(税別)
Feature of ProductType-DPXX 製品特徴

「APPLIED CERVO Deep for Linux Type-DPXX」は、深層学習 (Deep Learning) 向けに設計された HPC 専用ワークステーションです。ワークステーションを構成する部材は、すべて「高耐久」「高品質」仕様で、3 年間のセンドバック方式ハードウェア保証となっています。国内(福岡市)の自社工場で企画・製造し、12 時間の品質・動作・エージング検査済みです。

本モデルは、ディープ・ラーニング(深層学習)向けに最適化された OS (Ubuntu 18.04 LTS)、フレームワーク、ライブラリをあらかじめインストールしており、深層学習を意識した専用モデルとなります。

GPU(計算用)には、NVIDIA® Tesla® V100 を標準採用しています。1 つの GPU で 100 CPU 分の性能を提供します。データ サイエンティスト、研究者、エンジニアは、メモリ使用量の最適化ではなく、次の AI ブレイクスルーを生み出すことに時間を費やせるようになります。

640 個の Tensor コアを搭載した Tesla V100 は、ディープラーニング性能で 100 テラフロップス (TOPS) の壁を突破した世界初の GPU です。次世代の NVIDIA NVLink™ は、毎秒最高 300 GB で複数の V100 GPU に接続し、世界で最もパワフルなコンピューティング サーバーを構築します。従来のシステムではコンピューティング リソースを数週間消費していた AI モデルが、今では数日でトレーニングできるようになりました。このトレーニング時間の劇的な削減により、まったく新しい世界の問題が AI によって解決できるようになりました。

おすすめポイント

Ubuntu 18.04 LTS 動作検証済

Ubuntu 18.04 LTS
動作検証済

統合開発環境 セットアップ済

統合開発環境
セットアップ済

インテル Xeon® スケーラブル 2 基

インテル Xeon®
スケーラブル 2 基

AVX-512 ベクトル演算

AVX-512
ベクトル演算

最大 768GB メモリ 6 チャンネル駆動

最大 768GB メモリ
6 チャンネル駆動

耐久 SSD MTBF:150 万時間

耐久 SSD
MTBF:150 万時間

エンタープライズ ストレージ

エンタープライズ
ストレージ

最大 8 基 ホットスワップ対応

最大 8 基
ホットスワップ対応

最大 4 GPU PCIe 64 レーン

最大 4 GPU
PCIe 64 レーン

10 ギガビット LAN 2 ポート

10 ギガビット LAN
2 ポート

IPMI 2.0

IPMI 2.0
 

高変換効率 80 Plus Titanium 認証

高変換効率
80 Plus Titanium 認証

4U 19インチ ラックマウント対応

4U 19インチ
ラックマウント対応

3 年間 センドバック ハードウェア保証

3 年間 センドバック
ハードウェア保証

国内自社工場(福岡市)で熟練エンジニアによる生産

BTO パソコン・HPC 製品を構成する部材は、自社品質基準をクリアしたものだけを採用しています。 高い性能と耐久性を求められる HPC 製品はもちろんのこと、一般事務などで利用される BTO パソコンについても、安心してご利用いただけるように、部材採用選定から製造まで、一貫して品質向上に努めています。 また、部材供給メーカーや国内正規代理店とも、定期的な品質ミーティングを行っています。

業界屈指の診断ツール「QuickTechProfessional」による品質検査

国内自社工場(福岡市)で生産される BTO パソコン・HPC 製品は、業界標準検査の「QuickTech Professional」による診断を行っています。 プロセッサー、メモリー、ストレージ などコンピューターを構成する各ハードウェアに対し、実際に稼動している時と同じ状態を再現し、負荷検査を行います。

それぞれのハードウェアに対し、個別の強力な診断プログラムが用意されています。 (※ 例えば、メモリの診断では定評あるメモリ診断アルゴリズム「Jump」をはじめ、6 種類の診断アルゴリズムを駆使してエラーを検出します。)

こうして、ソフトウェア的に負荷をかけることにより、従来の診断ツールでは発見できなかったエラーの検出も可能になりました。 この「QuickTech Professional」で診断された結果を「診断書」として製品に添付いたします。これが、「品質合格の証」です。

深層学習 (Deep Learning) に最適化された開発環境

ディープ・ラーニングとは、CUDA を使った深層学習研究、多層構造のニューラルネットワークを用いた機械学習の手法の 1 つです。インプットした情報が第 1 層からより深い層に次々と伝達される間に各層で学習が繰り返されて、その過程で特徴量が自動で計算されていくことで、パターンの認識精度が向上するなど、様々な問題の解決に繋がると期待されています。

本モデルは、ディープ・ラーニング(深層学習)向けに最適化された OS (Ubuntu 18.04 LTS)、フレームワーク、ライブラリをあらかじめインストールしており、深層学習を意識した専用モデルとなります。

ハードウェアの安定動作のみならず、Linux OS や 開発環境の動作を代行して、高品質・安定動作する HPC 専用ワークステーションをご提供します。

CUDA10 / Python / TensorFlow / Keras / Chainer 他

環境構築済みで届いたその日から

インストールしたばかりの OS にDeepLearning用 のセットアップを 1 から行うのは非常に時間と手間のかかる作業です。 また、フレームワークやライブラリのバージョンの違いによって正常に動作しない場合もあり、可能な限り最新のものを使いつつ整合性の取れた組み合わせでセットアップを行うのは至難の業です。

アプライドの CERVO Deep for Linux シリーズは、出荷時にディープラーニング環境を構築済みなので、届いたその日から研究・開発に着手することが可能です。 付属のシステムマニュアルには、代表的なフレームワークライブラリのサンプルプログラムの動作確認手順も記載されているので、ディープラーニングが初めての方にも安心です。

世界最先端のデータ センター GPU NVIDIA TESLA V100

NVIDIA® Tesla® V100 は、AI、HPC、およびグラフィックスを高速化するために構築された最先端のデータ センター GPU です。これは NVIDIA Volta アーキテクチャで構築され、1 つの GPU で 100 CPU 分の性能を提供します。データ サイエンティスト、研究者、エンジニアは、メモリ使用量の最適化ではなく、次の AI ブレイクスルーを生み出すことに時間を費やせるようになります。

40 個の Tensor コアを搭載した Tesla V100 は、ディープラーニング性能で 100 テラフロップス (TOPS) の壁を突破した世界初の GPU です。次世代の NVIDIA NVLink™ は、毎秒最高 300 GB で複数の V100 GPU に接続し、世界で最もパワフルなコンピューティング サーバーを構築します。従来のシステムではコンピューティング リソースを数週間消費していた AI モデルが、今では数日でトレーニングできるようになりました。このトレーニング時間の劇的な削減により、まったく新しい世界の問題が AI によって解決できるようになりました。

AI 推論 ハイ パフォーマンス コンピューティング

Tesla V100 は、AI と HPC を統合するために設計されています。科学的シミュレーションのための計算科学と、データから洞察を見つけるためのデータ科学の両方に優れた HPC システムのプラットフォームを提供します。統一されたアーキテクチャで NVIDIA CUDA® コアと Tensor コアを組み合わせることにより、Tesla V100 GPU を装備したサーバー 1 台で数百台の汎用 CPU のみのサーバーに匹敵する能力が実現し、従来の HPC および AI ワークロードに活用できます。現在、すべての研究者とエンジニアが AI スーパーコンピューターを利用して、最も困難な作業に取り組むことができます。

Tesla V100 は、既存のハイパースケール サーバー ラックのパフォーマンスを最大化するように設計されています。AI をその中心に据えた Tesla V100 GPU は CPU サーバーの 47 倍の推論性能を実現します。スループットと効率性のこの大きな飛躍は、AI サービスのスケールアウトを現実的なものにします。

GPU 最大 4 枚を高レーンで同時に動作 (PCI-Express レーン数 64)

4-Way 構成に対応することにより、マルチ GPU 設定が可能になり、NVIDIA TESLA V100 を含む最新のグラフィックス技術の力を最大限活用できます。設計、モデリング、医学研究を始め、処理負荷の大きいシミュレーションやレンダリングアプリケーションに最適な性能が実現されます。

PCI-Express 3.0 (x16 モード) の GPU を、最大 4 枚で同時に動作させ、最大のパフォーマンスが得られる設計となっています。

また、GPU ボード以外にも、RAID ボードや 10Gbps LAN ボード、InfiniBand ボードなどの増設にも対応できる拡張性も確保しています。

耐障害性を確保する冗長化電源ユニット

100V 時に 1,200W、240V 時に 2,200W に対応した電源ユニットを 2 個搭載しています。万が一、1 台の電源ユニットが故障しても、もう 1 台の電源ユニットが継続して電源を供給することができる冗長性を確保しています。また、ワークステーションを継続運用するための電力を充分に供給できるため、継続して長時間の計算を実行できます。

[2 基] インテル® Xeon® スケーラブル・プロセッサー 搭載(Skylake)

インテル® Xeon® スケーラブル・プロセッサーは、データセンター・コンピューティング、ネットワーク、ストレージに求められるハードウェア支援型のパフォーマンスが得られます。既存の Skylake と比べ、1 コアあたり L2 キャッシュ容量が従来の 256KB から 1MB へと 4 倍増加しています。レイテンシの少ない L2 キャッシュが増加することで、並列処理の性能が大きく向上します。

インテル® Xeon® スケーラブル・プロセッサーは、Platinum/Gold/Silver/Bronze のラインナップで構成されています。最上位の Platinum では 2.5GHz/tb3.8GHz で最大 28 コア / 56 スレッドで、2/4/8 ソケット構成をサポート、最大 1.5TB の DDR4-2666 に対応します。高度な分析、シミュレーションとモデリング、人工知能に対応して最適なパフォーマンスを発揮します。

Gold は最大 22 コア / 48 スレッドを用意し、2/4 ソケット構成をサポート、効率性と俊敏性に優れたワークロードに最適します。Silverは最大 12 コア / 24 スレッドで、中程度のタスク向けに最適化され、Bronzeは最大 8 コア / 16 スレッドで、軽量なタスク向けに最適化されています。

512 ビットの超広域ベクトル演算機能によるパフォーマンスの向上

512 ビットの超広域ベクトル演算機能を備えたインテル® AVX-512 は、極めて要求の厳しい演算タスクを処理できます。

アプリケーションは、最大 2 つの 512 ビット融合積和 (FMA) ユニットを使用して、クロックサイクルごとに 1 秒当たり 32 個の倍精度浮動小数点演算と 64 個の単精度浮動小数点演算を 512 ビットベクトルにパックすることができ、8 個の 64 ビット整数と 16 個の 32 ビット整数もパックできます。

これにより、インテル® アドバンスト・ベクトル・エクステンション 2.0 (インテル® AVX2) に比べ、データレジスターの幅、レジスターの数、FMA ユニットの幅が倍増します。

最大 4TB / 6 チャンネル 構成に対応した Regeistered-ECC メモリー

最新の DDR4 メモリで、最大 2,933MT/s の高速化に対応しています。また、16 スロットで 、3DS ECC RDIMM の場合は最大 4TB メモリ、3DS ECC LRDIMM の場合は最大で 4TB メモリを実装できます。(プロセッサー仕様に依存します)

1CPU あたり 6 スロット以上を利用することで、最大 6 チャンネルのメモリ帯域が利用でき、通信速度が向上します。

Registered-ECC 機能により、電気信号の清流・増幅で安定したメモリ・アクセス、専用チップでのエラー訂正による信頼性の向上を図っています。

最大 2TB インテル® Optane™ Persistent Memory

インテル🄬 Optane™ DC Persistent Memory は、メイン・メモリーとして一般的に使われる DRAM と同様に、メモリーチャネルと DIMM ソケットを介してアクセスできる不揮発性メモリーです。

大容量メモリ または高速ストレージとして利用でき、現状の DRAM では実現できない大容量のメモリー空間、他の不揮発性メモリーよりも高速なアクセスをご提供します。

※ 第 2 世代 インテル® Xeon® スケーラブル・プロセッサー (Cascade Lake) のみ対応。

運用コストを低減する IPMI 2.0

OS に依存せずに動作する IPMI 2.0 に対応した専用 LAN ポートを搭載しています。プロセッサー温度やファン回転数の監視、リモートでサーバの電源制御などができ、遠隔地やサーバールームに設置したワークステーションのメンテナンスが可能です。

ワークステーション管理者が稼動状況を確認でき、障害発生時にワークステーションの起動・再起動などをリモートできるため、運用コストの大幅な低減を実現します。

耐久性とパフォーマンス を兼ね備えた 高速ストレージ SSD

インテリジェントターボライトテクノロジーにより最大 520MB/秒での連続書き込みが可能です。連続読み込みは 550MB/秒まで高速化されます。78GB のターボライトのバッファサイズにより、ファイル転送がより高速になりました。

最新の V-NAND テクノロジーを採用することにより、最新のアプリケーションで使用される大容量データを、最大 2,400TBW で安全に保存およびレンダリングします。

ホストシステムとの高速でスムーズな通信により大きなメリットが得られます。洗練された ECC アルゴリズムと新しい MJX コントローラで処理が高速し、向上したキュー対応 TRIM により、Linuxとの互換性がアップします。

24 時間 365 日稼働を想定したエンタープライズ・クラス・ストレージ

最大 250 万時間の MTBF の HGST Ultrastar ハードディスク・ドライブは、最も要求の厳しいストレージ環境で 24 時間 365 日常時稼働の信頼性と耐久性を発揮します。

デスクトップ用ドライブの最大 10 倍の年間最大 550TB のワークロード率を実現します。HGST Ultrastar ドライブはエンタープライズ・クラスの優れた信頼性、電力効率、パフォーマンスを実現する高度なテクノロジーを採用しています。

強化された RVS (Rotational Vibration Safeguard) テクノロジーには、ドライブを監視し、線形振動と回転振動をリアルタイムに補正する最新のエレクトロニクスが導入されているため、従来のデスクトップドライブと比較すると、高振動環境でのパフォーマンスが向上しています。

最大 8 基 フロント・ホットスワップ対応

最大 8 基の 3.5 インチ・ストレージを搭載でき、マウンターを利用することで 2.5 インチ・ストレージも搭載可能です。

また、全てのベイで、ホットスワップに対応していますので、RAID 構成ストレージで障害が発生した場合などでも、運用を止めずにストレージの交換ができます。

高効率 80 Plus Titanium 認証電源

コンピューターやサーバーの電源が 20% ~ 100% の負荷環境下において、電源交換効率 80% 以上がスタンダードという基準に対して、80 Plus Titanium は、92% 以上 (20% 負荷時)、94% 以上 (50% 負荷時)、90% 以上 (100% 負荷時) の効率性を発揮する電源ユニットを標準採用しています。

電力変換効率の向上した電源ユニットは、発熱の減少によって冷却ファンの回転数の低下による静音化や電子部品の劣化低減が可能になり、コンピュータの快適性や省電力性の向上と同時に製品寿命も伸びます。

Standard specification標準仕様
モデル名 APPLIED CERVO Deep for Linux Type-DPXX
外形寸法 約 (W)178 x (D)673 x (H)462 mm
※突起部は除く
オペレーティング
システム
標準 Ubuntu 18.04 LTS 64bit ※インストール代行
その他 USB リカバリ・ディスク付属
統合開発環境 CUDA 10
Python 2.7.15rc1, 3.6.7
Tensor Flow 1.12.0
Keras 2.2.4
Chainer 5.2.0
Pytorch 1.1.0
OpenCV Use CUDA 4.0.1
cuDNN 7.3.1
NCCL 2.3.7
FFmpeg 3.4.4
Oracle-JAVA8 build 1.8.0_192
Keras 2.2.4
電源ユニット 定格出力 2,200W (200V 時) | 1,200W (100V 時)
ユニット数 2 基
仕様 80 Plus Titanium 認証 | 冗長化仕様
チップ・セット 名称 インテル® C621 チップ・セット
PCI Express
最大レーン数
20 レーン
セキュリティ・チップ 非搭載
GPU (計算用) 名称 NVIDIA® Tesla® V100
搭載数 1 基
最大搭載数 4 基
CUDA コア数 5120 コア (1GPU あたり)
Tensor コア数 640 コア (1GPU あたり)
メモリー 16GB | HBM2 (1GPU あたり)
半精度
浮動小数点性能
14TFLOPS
単精度
浮動小数点性能
7TFLOPS
Tensor
演算性能
112TFLOPS
プロセッサー 名称 インテル® Xeon® Gold 5120 プロセッサー
プロセッサー数 2 基
動作周波数 2.2GHz | Max 3.2GHz
コア数 14 コア | 28 スレッド (1CPU あたり)
L3 キャッシュ 19.25MB (1CPU あたり)
PCI Express
最大レーン数
48 レーン (1CPU あたり)
その他 Skylake
プロセッサー・ファン 4U Active CPU Heat Sink
メモリー 標準 96GB (8GBx12)
最大容量 3DS-RDIMM:4TB
3DS-LRDIMM:4TB
スロット数 16 スロット (空き:4 スロット)
仕様 DDR4-2666 | Registered-ECC | CPU により DDR4-2400 で駆動
チャンネル数 6 チャンネル | 最大 6 チャンネル (1CPU あたり)
ストレージ (標準) 容量 500GB
規格 SATA3 | SSD | 耐久仕様
読み出し
(シーケンシャル)
550MB/s
書き込み
(シーケンシャル)
520MB/s
TBW
(総書込みバイト量)
150TB
MTBF
(平均故障間隔)
150 万時間
ストレージ (増設) 容量 2TB
規格 SATA3 | HDD | 高耐久仕様
回転数 7,200rpm
キャッシュ 128MB
MTBF
(平均故障間隔)
200 万時間
対応 RAID 機能 (SATA) RAID 0/1/5/10
※マザーボードの搭載機能です。
※OS により対応状況が異なります。
光学ドライブ DVD スーパーマルチ
グラフィック 名称 NVIDIA® Quadro® P620
メモリー 2GB | GDDR5
ポート mini DisplayPort:4 ポート
Mini DP-DP 変換ケーブル × 1
Mini DP-DVI-D 変換ケーブル (シングルリンク対応) x 1
最大画面出力 最大 4 画面出力
サウンド 仕様 Realtek® ALC S1220A HD オーディオ・コーデック
チャンネル 7.1ch
ネットワーク 名称 インテル® イーサネット・コントローラー X550
インターフェイス 10GBASE-T | 1000BASE-T
ポート数 2 ポート
IPMI 名称 Intelligent Platform Management Interface v.2.0
ポート数 1 ポート
各種ポート USB USB3.0:4 ポート (前:2 ポート | 背:2 ポート)
USB2.0:2 ポート (前:0 ポート | 背:2 ポート)
その他 RS-232C:1 ポート (背面)
拡張ソケット M.2 Interface: PCI-E 3.0 x4
拡張スロット 4 x PCIe 3.0 x16 (double-width)
2 x PCIe 3.0 x16 (Single-width)
1 x PCIe 3.0 x16 (in x8 slot)
ドライブ・ベイ 5.25 インチ:3 ベイ (空き:2 ベイ)
3.5 インチ:1 ベイ (空き:1 ベイ)
3.5 インチ・シャドウ (HotSwap 対応):8 ベイ (空き:6 ベイ)
入力機器 キーボード スタンダード・キーボード ※USB 接続
マウス オプティカル・マウス ※USB 接続
ラックマウント サイズ 19 インチ | 4U ラックマウント
レール・キット オプション
保証 期間 3 年間
方式 センドバック方式ハードウェア保証