メニュー

SCA HPC ASIA 2026 Report

科学研究を前に進めるのは計算スピードだけではない—AI Beyond Limits - AIが待ち望んだデータプラットフォーム

Large conference banner for SCA/HPC Asia 2026 with event details and illustrated Osaka skyline.
目次

このページを共有

Masahiro Waki
Masahiro Waki

2026年1月、大阪で開催されたSCA HPC ASIA 2026で、NetAppは『AI Beyond Limits — AIが待ち望んだデータプラットフォーム』を掲げ出展いたしました。筆者はExhibitor Forumにて『Empowering AI for Science with Intelligent data infrastructure』をテーマに登壇し、HPCの設計思想がCompute-CentricからData-Centric(AI for Science)へと移行する必然性と、その転換を支えるintelligent data infrastructureの価値を具体的に示しました。

なぜ“いま”AI for Science なのか:Compute-CentricからData-Centricへの転換点

Pre-AI時代のHPCは、装置内部で計算性能を極限まで引き出し、データ移動を最小化するよう設計されてきました。このアプローチはこれまで多くの成果を上げ、今日でも科学研究の重要な土台ですが、AIを研究の中核エンジンとして日常的に回すAI for Scienceの時代には、前提が変わります。研究のボトルネックはピークFLOPSではなく、必要なデータを素早く見つけ、意味づけて整え、権限と来歴を維持したまま安全に共有し、GPUに滞りなく届けること——すなわち“データの流れ”そのものです。従来の一回完結型(バッチ)から、シミュレーション・データ・AIが連続的に回る反復サイクルへと移り、HPCは単体の装置ではなく、オンプレミス、外部機関、パブリッククラウドとセキュアにシームレスに統合したサービスとして運用されます。

Presentation slide explaining the shift from compute‑centric HPC to data‑driven AI for science.

真のボトルネックはComputeではなくData

GPUは高性能化と高密度化を続け、以前よりも入手しやすくなりました。それでも現場で頻繁に起きているのは、『GPUがデータを待っている』という逆転現象です。詰まっているのは、データの移動・準備・管理・再利用。実際、2026年までにAIプロジェクトの60%がAI-Readyデータの欠如によって頓挫するとの予測も示されています。AIを前提とする研究で成果を伸ばすには、データが滞りなく“流れ続ける”ことを設計の中心に据える必要があります。

AI for Scienceがデータに求める4条件

AIを科学に本当に効かせるには、データが次の条件を満たす必要があります:

  • 容易に発見可能(Discoverable)
  • 信頼できる(Governed & Trusted)
  • 再利用可能(Reusable)
  • AI処理に適した形式(AI-Ready)

加えて、長期研究・内外機関横断・ハイブリッド/マルチクラウドを前提とした継続運用を支えること。これは短期の対症療法で解決できる課題ではなく、インフラの思想そのものを問う要件です。ここに、上記の条件を叶えるインテリジェントなデータ基盤の必要性が生まれるのです。

Intelligent data infrastructure:AI時代に求められるデータ基盤

Slide outlining intelligent data infrastructure principles including data management and adaptive operations.

NetAppのintelligent data infrastructureは、データを単に格納するのではなく“理解して扱う”ためのインフラです。研究室、HPC、主要クラウドに分散するデータを束ね、AIとHPCに効率よく“データを提供し続ける”基盤を提供します。Intelligent data infrastructureを構成する3つの柱は次の通りです:

  • Any Data, Any Place:あらゆる場所のデータを統合し、サイロ化を解消。権限や来歴を維持したまま一貫した作法でアクセス/共有
  • Active Data Management:セキュリティ/ガバナンス/コンプライアンスを仕組みとして内蔵し、説明責任と安心を担保
  • Adaptive Operations:負荷と環境変化に自律追随し、性能・効率・コストのバランスを継続最適化

そして、このIntelligent Data Infrastructureを具現化し、さらに強化するため、NetAppは次の2つの最新ソリューションを提供しています

NetApp AFX:ハイパフォーマンスで超スケーラブル分離型AIストレージ

AI主導の科学を本番規模で回すには、ストレージがGPUのペースに確実に追随する必要があります。その要望に応えるためNetAppはNetApp AFXを提供しています。高性能・超スケーラブル・分離型(disaggregated)アーキテクチャにより、AI/HPCのI/Oボトルネックを根本から解消します。

主な特長は次の通りです:

  • 最大128ノードまで性能拡張、最大4TB/秒の並列スループット
  • 1+EB規模の容量をサポート、性能と容量を各々独立に拡張
  • AIによる自律型Real-timeランサムウェア対策(99%超の精度)標準搭載、万が一の場合もランサムウェアからのリカバリを保証
  • セキュアなマルチテナンシーとオンプレミス・クラウドのシームレスなデータ統合
  • NVIDIA DGX SuperPOD認定済。ONTAP上に構築。ファイル/オブジェクトの統合アクセスでAIとHPCの混在運用を簡潔化

NetApp AFXは正にData Centric時代のAI for Science が求める性能、拡張、サーバーレジリエンスを有しています。

Slide highlighting NetApp AFX high‑performance AI storage with scale, throughput, and security features.

NetApp AI Data Engine(AIDE):エンドツーエンドのストレージ統合AIデータサービス

どんなに強力なGPUとストレージがあっても、データがAI-Radyの状態に整っていなければ、AIは上手く機能しません。NetApp AI Data Engineは、世界で初めてストレージにGPUを搭載することで、データ検出、キュレーション、ポリシーベースのガードレール、生成AI向けのリアルタイムベクトル化を統合し、AI-Readyデータを提供することで、AIワークフローをシームレスに運用、拡張します。データ資産を統一して常に最新の状態に維持しながら、データへの高速アクセス、より効率的なデータ変換、信頼できるガバナンスを実現します。

AIDEの主な機能は次の通りです:

  • Metadata Engine:来歴・品質・前処理を機械可読メタデータとして整理し、『どこに何があり、いま使えるのはどれか』を即時提示
  • Data Sync:変更検知と差分同期で常に最新を維持し、“古い学習”の無駄を排除
  • Data Guardrails:機微情報の自動検出とポリシー適用で、最小権限・コンプライアンス・説明責任を担保
  • Data Curator:横断探索・検索・ベクトル化・取得まで統合し、AIがそのまま活用しやすい形式で供給

結果として、データ準備の時間を大幅に削減し、プロジェクトのスループットを押し上げます。長期・協働・ハイブリッド環境でも、常に最新かつ信頼性の高いAI-Readyデータを中心に据えた運用が可能になります。

Slide describing the NetApp AI Data Engine and its end‑to‑end AI data pipeline components.

研究現場への示唆:データの継続性が競争力になる-長期・協働・ハイブリッドクラウドが“当たり前”に

日本およびアジアの研究では、HPCとAIの収斂(Convergence)が確実に進んでいます。長期研究、共同研究、ハイブリッド/マルチクラウドという複雑な現実要件を満たすためには、信頼できるデータ、再利用可能なデータ、一貫したデータ、ガバナンスされたデータが不可欠です。NetAppはintelligent data infrastructure、AFX、AI Data Engineによって、データの統合、保護、最適化、活用を同時に実現し、AI for Scienceの継続的な価値創出を支えます。

AI for Scienceを用いた科学研究の例:例えばAI for Scienceを用いた科学研究の最前線で、いくつかの重要な課題に取り組んでいます。それらの課題には以下のようなものがあります:

ゲノム解析

日本の研究機関は、大規模なゲノムデータを解析し、遺伝子の機能や病気の原因を解明する研究を行っています。これには、膨大なデータの効率的な管理と高速な解析が不可欠です。AIを駆使することで、これらのデータを一元的に管理し、高速なデータ処理能力を提供することで、ゲノム解析の進展を支えています。

材料研究

新しい材料の特性を予測するためにAIを活用し、最適な材料設計を行う研究が進められています。これには、実験データとシミュレーションデータを統合し、高度な解析を行う必要があります。AIが異なるデータソースを統合し、効率的なデータ管理と高速なデータ解析を実現しています。

気候変動解析

気候モデルを用いて地球温暖化の影響を予測する研究が行われています。これには、観測データとシミュレーションデータを統合し、高精度な予測を行う必要があります。AIが大量のデータを一元的に管理し、高速なデータ処理能力を提供することで、気候変動解析の進展を支えています。 

Compute Centricの時代のHPCは性能で評価されてきましたが、Data Centricの時代のAI for Scienceが求めるのはデータの『継続性』です。成果に直結するのは、計算資源の大きさやデータの存在だけではありません。データは整理され、正しくアップデートされ、保護され、途切れず再利用できるAI-Readyの状態になって初めて、研究の基盤として力を発揮します。NetAppのIntelligent Data Infrastructureがその“流れ”を支え、AFXが止まらない高速供給を保証し、AI Data EngineがFind/Sync/Govern/Curateを通じて整ったAI-Readyデータを継続的に提供します。研究者はデータ管理の煩雑さから解放され、真の科学的発見に集中することができるようになります。

NetApp Sessionビデオリンクのご案内

最後に、筆者が登壇したSCA HPC ASIA 2026 Exhibitor ForumでのNetApp Sessionのビデオ(編集済)を公開いたします。ご興味がある方は、ぜひご視聴ください。

 
https://youtu.be/-2YYwLmtY9k?si=z9KJN4InfrHGTdSP&t=19
 

AI for Scienceはデータから始まる。そして、データはNetAppから始まる。

注記

  • Gartner予測(2025年2月26日公表):2026年までにAI-Readyデータに支えられないAIプロジェクトの60%が放棄されると予測。出典:Gartner Newsroom “Lack of AI-Ready Data Puts AI Projects at Risk”.
  • AFXのスループット(TB/s級)および最大128ノードのスケールは参照構成に依存する最大値。DGX SuperPOD認定および分離型アーキテクチャの詳細は製品資料に準拠。
  • ストレージ層のAI駆動ランサムウェア検知(ARP/AI)の「最大99%精度」はfileワークロードを対象とした計測に基づく。実運用の検知率はワークロード特性と設定に依存。
  • AI Data EngineはNVIDIA AI Data Platform(NVIDIA AI Enterprise/NIMマイクロサービス)参照設計と連携し、セマンティック検索やベクトル化、ポリシー駆動の運用を強化。

Masahiro Waki

国内のAIおよびDXに関わる戦略的な事業開発を担当。学術・研究機関、HPC、IOWN、ライフサイエンス、M&Eなどの業界活動および技術パートナーとのアライアンス活動に従事。前職のソニー時代に英仏印米計15年の海外駐在経験あり。ストレージ、データ基盤、放送業務用メディア、その他のビジネス開発を推進。ネットアップの「Data Fabric」コンセプトに惹かれ2021年に転職し現職。日本映画テレビ技術協会理事、AXIES(大学ICT推進協議会)RDM兼クラウド部会副査兼任。LLM-JP、LINK-J、デジタルアーカイブ学会メンバーほか。

Masahiro Wakiの投稿をすべて見る

次のステップ

Drift chat loading