Hammerspace

投稿者: | 2025年4月28日

Eliminate Data Silos by Consolidating, then Orchestrating, Distributed Unstructured Data | Hammerspace

Hammerspace Service Level Objectives | Hammerspace

Data-in-place Assimilation

Objectives

Hammerspace Service Level Objectives | Hammerspace

Automating Data Management with Hammerspace Data Orchestration | Hammerspace

・Objectiveは事前に設定されたものと、smart-objectiveを自前につくることが可能。
・Smart-ObjectiveはCLIで作成。

smart-objective-create --name "Older than 90 days" --expression "IF LAST_USE_AGE<90*DAYS THEN {SLO('place-on-NAS')} ELSE {SLO('place-on-Amazon Web Services')}"

・CLI/GUIでObjectiveを設定可能

Applying an Objective to a file

share-objective-add --objective "Older than 90 days" --name Engineering --path test.txt

Applying an Objective to a directory

share-objective-add --objective "Older than 90 days" --name Marketing --path /Projects 

例:シェア、ファイル、ディレクトリをそれぞれアーカイブとして使いたい場合

以下のObjectiveを設定する。

  • NAS Tier2
  • 90日以上古い
  • Virus scan
  • WORM

例:StorJクラウドをデータ格納先として使いたい場合

・オンプレの既存データをクラウドのStorj Cloudに無停止移行

・Storj Cloud(S3 I/F)をHammerspace配下に追加してボリューム(GFS配下ではない。)としてみせる

・Objectiveにplace-on-My-Storjを設定。ボリューム間の無停止移行(サイト間でも可能)

Leveraging Storj Distributed Cloud with Hammerspace Global File System | Hammerspace

例:その他

Welcome to DataCore vFilO Help

オブジェクト

Technical_Brief_S3_Native_Object_Access_Meets_Parallel_File_System_Per.pdf

In-data Assimilation

Technical_Brief_Data_In_Place_Assimilation_Using_Hammerspace_and_Rclon.pdf

ユースケース①: Archive

・アーカイブデータをHammerspaceの配下にする

・Assimilation後はユーザはHammerspace経由でアーカイブデータにアクセス

・Writeは他のHammerspaceボリュームに書く

ユースケース②:Full migration

・フルマイグレーション

・Assimilationが始まった後はHammerspace経由のみでアクセス

RRDMA

Technical_Brief___Using_Hammerspace_with_RDMA.pdf

Mount NFS via RDMA on Mellanox Card | Sparktour’s Blog

・クライアント・DSXノードとDSXノード間でRDMA on RoCEv2 or InfiniBandが使用可能

・NVIDIA ConnectX-4以上が必要

・NFSのmountオプションに-o rdmaをつける

Tier0

http://A Detailed Analysis of Using Hammerspace Tier 0 for Checkpointing

Improve the Performance, Efficiency, and ROI of GPU Computing with Hammerspace Tier 0

Hammerspace MLPerf® Storage v1.0 Benchmark Results

<背景>

チェックポイントは定期的にアプリ状態を永続化する。

チェックポイント中はストレージ書き込み待ちになりGPUがアイドルになりやすい。

<Tier0>

  • GPUサーバのローカルNVMeストレージをGFSの共有ストレージの上位Tierとして使用
  • GPUサーバのローカルディスクをNFS v3 exportとして設定。GFSに組み入れる。クライアントはNFSv4.2のFlexFilesを使ってGFSをマウントすることでローカルディスクにアクセスする。
  • Tier0はHammerspaceの保護ポリシで保護(例:GPUサーバノード間のミラーリング)
  • Objectivesで新しいデータをTier0に古いデータを下位Tierに移動(どういうObjective?ファイル他員に手動?)
  • ファイルをpinning
  • Linuxのカーネルクライアントの性能改善。クライアントとサーバが同じホストにいた場合カーネルバイパス(Linux6.12より)。NFS LOCALIO — The Linux Kernel documentationと呼ばれる。

GFS

Hammerspace Multi-Cloud Data Sharing Demo

・ケース1:一つのサイトでアプリが動作し、データをハイブリッドクラウドで格納

ケース2:アプリがオンプレとクラウドで共有

  • Objectiveでplace-on-premとplace-on-cloudの二つを指定。データをコピー。

Multis

Multi-Region Rendering with Deadline and Hammerspace | AWS for M&E Blog

Snapshot

Hammerspace Multi-Cloud Data Sharing Demo

・メタデータサーバがBlobを管理(17:00~くらい)

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です