科学研究を前に進めるのは計算スピードだけではない—AI Beyond Limits - AIが待ち望んだデータプラットフォーム
2026年1月、大阪で開催されたSCA HPC ASIA 2026で、NetAppは『AI Beyond Limits — AIが待ち望んだデータプラットフォーム』を掲げ出展いたしました。筆者はExhibitor Forumにて『Empowering AI for Science with Intelligent data infrastructure』をテーマに登壇し、HPCの設計思想がCompute-CentricからData-Centric(AI for Science)へと移行する必然性と、その転換を支えるintelligent data infrastructureの価値を具体的に示しました。
Pre-AI時代のHPCは、装置内部で計算性能を極限まで引き出し、データ移動を最小化するよう設計されてきました。このアプローチはこれまで多くの成果を上げ、今日でも科学研究の重要な土台ですが、AIを研究の中核エンジンとして日常的に回すAI for Scienceの時代には、前提が変わります。研究のボトルネックはピークFLOPSではなく、必要なデータを素早く見つけ、意味づけて整え、権限と来歴を維持したまま安全に共有し、GPUに滞りなく届けること——すなわち“データの流れ”そのものです。従来の一回完結型(バッチ)から、シミュレーション・データ・AIが連続的に回る反復サイクルへと移り、HPCは単体の装置ではなく、オンプレミス、外部機関、パブリッククラウドとセキュアにシームレスに統合したサービスとして運用されます。
真のボトルネックはComputeではなくData
GPUは高性能化と高密度化を続け、以前よりも入手しやすくなりました。それでも現場で頻繁に起きているのは、『GPUがデータを待っている』という逆転現象です。詰まっているのは、データの移動・準備・管理・再利用。実際、2026年までにAIプロジェクトの60%がAI-Readyデータの欠如によって頓挫するとの予測も示されています。AIを前提とする研究で成果を伸ばすには、データが滞りなく“流れ続ける”ことを設計の中心に据える必要があります。
AI for Scienceがデータに求める4条件
AIを科学に本当に効かせるには、データが次の条件を満たす必要があります:
加えて、長期研究・内外機関横断・ハイブリッド/マルチクラウドを前提とした継続運用を支えること。これは短期の対症療法で解決できる課題ではなく、インフラの思想そのものを問う要件です。ここに、上記の条件を叶えるインテリジェントなデータ基盤の必要性が生まれるのです。
NetAppのintelligent data infrastructureは、データを単に格納するのではなく“理解して扱う”ためのインフラです。研究室、HPC、主要クラウドに分散するデータを束ね、AIとHPCに効率よく“データを提供し続ける”基盤を提供します。Intelligent data infrastructureを構成する3つの柱は次の通りです:
そして、このIntelligent Data Infrastructureを具現化し、さらに強化するため、NetAppは次の2つの最新ソリューションを提供しています
AI主導の科学を本番規模で回すには、ストレージがGPUのペースに確実に追随する必要があります。その要望に応えるためNetAppはNetApp AFXを提供しています。高性能・超スケーラブル・分離型(disaggregated)アーキテクチャにより、AI/HPCのI/Oボトルネックを根本から解消します。
主な特長は次の通りです:
NetApp AFXは正にData Centric時代のAI for Science が求める性能、拡張、サーバーレジリエンスを有しています。
どんなに強力なGPUとストレージがあっても、データがAI-Radyの状態に整っていなければ、AIは上手く機能しません。NetApp AI Data Engineは、世界で初めてストレージにGPUを搭載することで、データ検出、キュレーション、ポリシーベースのガードレール、生成AI向けのリアルタイムベクトル化を統合し、AI-Readyデータを提供することで、AIワークフローをシームレスに運用、拡張します。データ資産を統一して常に最新の状態に維持しながら、データへの高速アクセス、より効率的なデータ変換、信頼できるガバナンスを実現します。
AIDEの主な機能は次の通りです:
結果として、データ準備の時間を大幅に削減し、プロジェクトのスループットを押し上げます。長期・協働・ハイブリッド環境でも、常に最新かつ信頼性の高いAI-Readyデータを中心に据えた運用が可能になります。
日本およびアジアの研究では、HPCとAIの収斂(Convergence)が確実に進んでいます。長期研究、共同研究、ハイブリッド/マルチクラウドという複雑な現実要件を満たすためには、信頼できるデータ、再利用可能なデータ、一貫したデータ、ガバナンスされたデータが不可欠です。NetAppはintelligent data infrastructure、AFX、AI Data Engineによって、データの統合、保護、最適化、活用を同時に実現し、AI for Scienceの継続的な価値創出を支えます。
AI for Scienceを用いた科学研究の例:例えばAI for Scienceを用いた科学研究の最前線で、いくつかの重要な課題に取り組んでいます。それらの課題には以下のようなものがあります:
ゲノム解析
日本の研究機関は、大規模なゲノムデータを解析し、遺伝子の機能や病気の原因を解明する研究を行っています。これには、膨大なデータの効率的な管理と高速な解析が不可欠です。AIを駆使することで、これらのデータを一元的に管理し、高速なデータ処理能力を提供することで、ゲノム解析の進展を支えています。
材料研究
新しい材料の特性を予測するためにAIを活用し、最適な材料設計を行う研究が進められています。これには、実験データとシミュレーションデータを統合し、高度な解析を行う必要があります。AIが異なるデータソースを統合し、効率的なデータ管理と高速なデータ解析を実現しています。
気候変動解析
気候モデルを用いて地球温暖化の影響を予測する研究が行われています。これには、観測データとシミュレーションデータを統合し、高精度な予測を行う必要があります。AIが大量のデータを一元的に管理し、高速なデータ処理能力を提供することで、気候変動解析の進展を支えています。
Compute Centricの時代のHPCは性能で評価されてきましたが、Data Centricの時代のAI for Scienceが求めるのはデータの『継続性』です。成果に直結するのは、計算資源の大きさやデータの存在だけではありません。データは整理され、正しくアップデートされ、保護され、途切れず再利用できるAI-Readyの状態になって初めて、研究の基盤として力を発揮します。NetAppのIntelligent Data Infrastructureがその“流れ”を支え、AFXが止まらない高速供給を保証し、AI Data EngineがFind/Sync/Govern/Curateを通じて整ったAI-Readyデータを継続的に提供します。研究者はデータ管理の煩雑さから解放され、真の科学的発見に集中することができるようになります。
NetApp Sessionビデオリンクのご案内
最後に、筆者が登壇したSCA HPC ASIA 2026 Exhibitor ForumでのNetApp Sessionのビデオ(編集済)を公開いたします。ご興味がある方は、ぜひご視聴ください。
https://youtu.be/-2YYwLmtY9k?si=z9KJN4InfrHGTdSP&t=19
AI for Scienceはデータから始まる。そして、データはNetAppから始まる。
注記
国内のAIおよびDXに関わる戦略的な事業開発を担当。学術・研究機関、HPC、IOWN、ライフサイエンス、M&Eなどの業界活動および技術パートナーとのアライアンス活動に従事。前職のソニー時代に英仏印米計15年の海外駐在経験あり。ストレージ、データ基盤、放送業務用メディア、その他のビジネス開発を推進。ネットアップの「Data Fabric」コンセプトに惹かれ2021年に転職し現職。日本映画テレビ技術協会理事、AXIES(大学ICT推進協議会)RDM兼クラウド部会副査兼任。LLM-JP、LINK-J、デジタルアーカイブ学会メンバーほか。