メニュー

AI industry impact Japan

イベントレポート

目次

このページを共有

庄司 知代 (Tomoyo Shoji)
庄司 知代

AI・クラウド・データ基盤を活用した次世代の半導体製造・設計環境の構築に向けた最新トレンドと、実践的なソリューションをご紹介します。2025年9月9日に開催された『データで攻める!~半導体製造を加速するデータ基盤 ~』の講演内容をサマリーでまとめます。

AI産業への影響: AIイノベーションの未来はNetAppとNVIDIAから始まる

AIインフラにおけるNetAppのポジショニング

ネットアップ合同会社代表執行役員社長 斉藤 千春

AIの活用は、現在のIT課題の中でも最も注目されているテーマです。8月にNetAppが実施したアンケートでは、回答企業のうち65%がすでにAIの業務活用またはトライアルを開始していることが明らかになりました。

さらに、AIインフラベンダーとしての認知度調査では、Microsoft、OpenAI、Google、AWS、NVIDIAといったグローバルリーダーに続き、NetAppが次点のポジションに挙げられていたことは、私たちにとって非常に大きな成果であり、今後の戦略においても重要な示唆となります。

本イベントでは、NVIDIA様やNTTデータ様などの実例を通じて、NetAppがAI分野においてどのような価値を提供できるのかを具体的にご紹介いたします。皆様のAI戦略において、NetAppが信頼できるパートナーであることをご理解いただければ幸いです。

AI INDUSTRY IMPACT "The Future of AI Innovation starts with NetApp and NVIDIA"

エヌビディア合同会社シニアテクニカルマーケティングマネージャー澤井理紀 氏

ネットアップ合同会社 AI Solutions AI Japan Sales Lead木村正志

AIの進化と企業が直面する課題、そしてその解決策としてのAIファクトリーについて、非常に示唆に富んだ内容が語られました。

AI導入の現実──85%のプロジェクトが失敗している理由

講演の冒頭では、NetAppが「85%のAIプロジェクトが失敗している」という衝撃的なデータを紹介しました。その主な原因は、以下のようなものです。

  • データアクセスの制限:必要なデータにアクセスできない、あるいは断片的なデータしか扱えない。
  • インフラの非効率性:高性能なGPUを導入しても、データ供給が追いつかず、リソースが活用されない。
  • “見えないコスト”の存在:開発者がインフラ管理に時間を取られ、本来のAIモデル開発に集中できない。

NVIDIAの澤井氏は、こうした課題が企業にとって数十万ドル規模の損失につながっていると指摘し、AI導入には技術だけでなく、運用体制の見直しが不可欠であると語りました。

AIファクトリーとは何か──インテリジェンスを“製造”する工場

NetAppとNVIDIAが提唱する「AIファクトリー」とは、企業が持つデータ・IT・AIツールを組み合わせて、知見(インテリジェンス)を“製造”するためのプラットフォームです。

この考え方は、AIを単なるツールとして捉えるのではなく、企業活動の中心に据えるという発想の転換を促します。

AIファクトリーでは、以下のような要素が組み合わさって価値を生み出します。

  • 基盤モデル(従業員):広範な知識を持つAIモデルが、企業独自のデータを学習し、業務に特化した能力を獲得します。
  • 企業データ(原材料):構造化・非構造化を問わず、業務に関する情報がAIの知識源となります。
  • AIツール(工作機器):モデルのトレーニングや推論を支えるソフトウェア群です。

この仕組みにより、企業は自社に最適化されたAIモデルを構築し、業務の自動化や意思決定の高度化、新たな収益機会の創出などを実現できます。

インフラとクラウドの融合──スケーラブルなAI環境の構築

AIファクトリーの実現には、強力なインフラが不可欠です。

NVIDIAは最新GPU「Blackwell」や「DGXB200」などを提供し、AIモデルのトレーニング・推論において圧倒的な性能を発揮します。

NetAppは、オンタップストレージを中心としたデータ基盤を提供し、AIのライフサイクル全体を支える環境を構築します。

さらに、AWS・Azure・Google Cloudといった主要クラウドに対応しており、マルチクラウド環境でもシームレスなAI展開が可能です。

この柔軟性により、企業はオンプレミスでもクラウドでも、必要な場所にAIファクトリーを構築することができます。

データの価値を最大化する──NeMoとの連携とRAGの活用

AIの精度は、取り込むデータの量と質に大きく左右されます。

NetAppは、NVIDIAの生成AIフレームワーク「NeMo」と連携することで、企業が持つ構造化・非構造化データを安全かつ効率的に活用できる環境を提供しています。

特に注目すべきは、**RAG(Retrieval-Augmented Generation)**の活用です。

これは、AIが外部データベースから情報を取得し、それをもとに生成を行う仕組みであり、企業独自の情報に基づいた高精度な応答を可能にします。

NetAppのAIデータプラットフォームは、NeMoベースのRAGパイプライン、GPUネットワーク基盤、ベクターデータベース、メタデータ管理までをフルスタックで提供し、企業が自社データと対話できるAIエージェントの構築を支援します。

AIは“製造”から“収益”へ──投資の価値を最大化する

「AIファクトリーへの投資が、より多くのトークン(知見)を生み出し、企業の競争力を高める」と語られました。

NVIDIAのCEOジェンスン・ファン氏も「300万ドルのAIインフラ投資が、3000万ドルの収益を生む」と述べており、AIは単なるコストではなく、収益を生み出す“製造装置”になり得るということです。

この考え方は、AIを導入する企業にとって、大きなヒントになるのではないでしょうか。

AIの未来は、すでに始まっています

AIは“使う”ものから“育てる”ものへ。そして今、企業はAIを“製造”する時代に突入しています。

NetAppとNVIDIAが描く「AIファクトリー」は、そんな未来を現実にするための道筋です。

AIをどう活用するか──その問いに、今こそ真剣に向き合うべき時が来ているのかもしれません。

NTTデータのプライベート環境向け AIインフラと Smart AI Agent™構想を 支えるサービス拡充について そしてNetAppが描く次世代アーキテクチャ

株式会社NTTデータ テクノロジーコンサルティング事業本部 テクノロジーコンサルティング事業部 統括部長 大久保 康基 氏

ネットアップ合同会社 ソリューション技術統括本部 第二技術本部 執行役員 本部長 松浦 敦

NTTデータが描く「SmartAI Agent™」構想に対し、NetAppがどのように技術的価値を提供しているかについて、具体的な事例とともにご紹介いたしました。

『Smart AI Agent™』業務の自律支援を目指すAI構想

NTTデータが提唱する「SmartAI Agent™」構想は、業務特化型AIエージェントが連携し、オフィスワーカー一人ひとりの業務を支援する新しいAIのかたちです。経理・営業・法務・人事など、部門ごとのエージェントがパーソナルAIを通じて業務を最適化し、業務プロセス全体の抜本的な改革を目指します。

この構想は、生成AIの活用にとどまらず、E2E(End-to-End)の業務改革を支えるBPS(Business Process Service)として展開されており、人口減少による労働力不足といった社会課題への対応にもつながると期待されています。

NTTデータは、SmartAI Agent™を業界横断で展開し、金融・製造・自治体・小売など、さまざまな業界の業務シーンに対応するラインナップを順次拡充していく方針です。

『PrivateAIインフラ』セキュアで柔軟なAI活用基盤

セッションでは、NTTデータが提供する「Private AI」インフラの全体像も紹介されました。社内の機微情報を安全にAIと連携するニーズに応えるため、2025年度中リリースに向けて以下のようなサービスが整備されています。

  • GPU as a Service:推論・ファインチューニング・大規模学習に対応した柔軟なGPUリソース提供。用途に応じて1枚のGPUから複数サーバによるクラスター構成まで対応可能です。
  • LLM as a Service:NTTデータのデータセンター上でLLMモデルをデプロイし、サービングするサービス。クローズド環境でのアプリケーション開発を支援します。
  • LITRONGA(プライベート版):社外に出したくないデータを扱う企業向けに、完全なプライベート環境でRAG(Retrieval-Augmented Generation)サービスを提供します。

これらのサービスは、企業のAI活用をより安全かつ効率的に支援する基盤となります。

NetAppストレージの採用理由、性能・拡張性・信頼性の三拍子

NTTデータは、大規模機械学習向けGPU基盤のストレージにNetAppAFF A90シリーズを採用しました。採用理由は以下の通りです。

  • NVIDIA DGXSuperPOD認定ストレージとして、高速なモデル学習に最適
  • マルチプロトコル対応(NFS, S3など)により多様なデータ形式に対応
  • Kubernetesとの高い親和性により、AIパイプラインの統合管理が可能
  • マルチテナント環境での独立性確保により、複数ユーザーへの安全なリソース提供が可能

MLOpsツールとの連携(Kubeflow,MLFlowなど)による自動化と可視化の実現また、国内NAS市場での高いシェアと豊富な導入実績により、トラブル時の対応力やエンジニアの確保にも優位性があると評価されています。

IOWN技術による地方分散型データセンター構想

NTTデータは、IOWN(InnovativeOptical and Wireless Network)技術を活用し、地方分散型のGPU基盤サービス計画を描いています。高発熱・高電力消費というAIサーバーの課題に対し、低遅延・高品質・大容量の通信を利用し、首都圏のみならず電力供給の安定した地方にもデータセンターを配置する構想です。

この取り組みにより、災害リスク分散やグリーンエネルギー活用にも対応し、持続可能なAIインフラの構築を目指しています。

AI時代に求められるストレージの進化

AIの活用がPoC(概念実証)から本格的な業務導入へと進む中、企業は従来のITと同様に「信頼性」「可用性」「拡張性」を備えたインフラを求めるようになってきました。NetAppは、こうしたニーズに応えるべく、AI時代に最適化されたストレージアーキテクチャを提供しています。

特に、NVIDIA DGXSuperPOD構成においては、NetAppのAFFシリーズが採用されており、NFS高速化技術やKubernetesとの親和性、マルチテナント対応など、AI基盤に必要な要素を網羅しています。

NetAppが提供する技術的価値

NetAppがAIインフラにおいて提供する以下の技術的価値については以下の通りです。

  1. 高速化技術によるパフォーマンス向上
    • NFS SessionTrunking:複数インターフェースを束ねて高速通信を実現
    • FlexGroup:全ノードの性能を最大限に引き出す分散ボリューム
    • pNFS:クライアントが直接データノードにアクセスすることで、ネットワーク負荷を軽減
    • NFS over RDMA:低遅延・高スループットを実現し、GPUサーバーのCPU負荷を削減
  2. 次世代アーキテクチャ「DisaggregatedStorageArchitecture(DSA)」

ONTAPの新しいビジョンとして、ストレージとコントローラを分離し、高速ネットワークで接続することで、柔軟な拡張性と動的な負荷分散を可能にします。これにより、AI時代に求められる大容量・高性能・高可用性のストレージ基盤を実現します。

分散型AIインフラへの対応

AIの進化に伴い、GPU基盤は地方分散型へとシフトしています。NetAppは、NTTグループが推進するIOWN構想にも対応し、遠隔地間の低遅延通信を可能にするストレージ設計を進めています。

また、AI Data Fabricの考え方に基づき、分散環境でも統一されたデータ管理を実現します。データの保存場所に縛られず、効率的な連携と強固なセキュリティを両立することで、企業のAI活用を支援しています。

欧米の事例に学ぶ​自動車業界向け​ユースケースのご紹介​

ネットアップ合同会社ソリューション技術統括本部 第一技術本部 部長坂本 貴弘​​

自動車業界におけるAI活用の最新事例と、それを支えるデータ基盤について、欧米の事例を交えながらご紹介いたします。

自動車業界に広がるAIの波

近年、自動車業界ではAIの活用が急速に進んでいます。デザイン分野では、機械学習や深層学習を活用したシミュレーションが進化しており、Copilotによる開発支援も注目されています。

また、ADAS(先進運転支援システム)では、生成AIによるデータ合成やシナリオ生成、品質検証、プロジェクト管理など、AIが多方面で活用されています。これにより、より安全で快適な運転体験の実現が期待されています。

データ量の爆発とインフラの課題

AI活用が進む一方で、膨大なデータの管理が大きな課題となっています。例えば、テスト車両1台から1日で数テラバイトのデータが生成されることもあり、全体では数十〜数百ペタバイトに達するケースもあります。

このような環境では、高スループットかつ低レイテンシーのストレージが不可欠です。NetAppでは、AFFシリーズのフラッシュストレージや、スナップショット・クローニング機能を活用することで、効率的なデータ管理と処理を実現しています。

クラウドとの連携で柔軟な開発環境を

オンプレミスとクラウドのハイブリッド環境も重要な要素です。NetAppのFlexCache技術を使えば、クラウドへのバースト処理が可能となり、トレーニングやシミュレーションのワークロードを柔軟に分散できます。

AWS、Azure、GoogleCloudとの連携もスムーズで、開発スピードの向上とコスト最適化を両立することができます。

実際の導入事例から見える価値

ドイツのOEM企業では、GPU性能を最大限に引き出すためにNetAppのオールフラッシュストレージを導入。データサイエンスチームの生産性向上や、物理ラックの削減、電力消費の最小化など、多くのメリットを実感されています。

また、米国のOEM企業では、2拠点間のビジネス継続性を確保するためにMetroClusterとFlexCacheを活用。単一のネームスペースによるシームレスなフェイルオーバーや、非アクティブデータの自動階層化など、モダナイゼーションとクラウド統合を実現しています。

最後に

IT環境がますます複雑化する中で、業界ごとの課題に寄り添い、最適なソリューションを提供することが、私たちNetAppの使命だと考えています。

今後も、自動車業界をはじめとしたさまざまな分野で、AIとデータ基盤の進化を支える取り組みを続けてまいります。ご興味のある方は、ぜひNetAppの担当者までお問い合わせください。

サイバーエージェントにおける生成AI基盤の活用​​

株式会社サイバーエージェントCyberAgentgroup Infrastructure Unit TechLead長谷川誠 氏

AI活用の歴史から、オンプレミスで構築されたMLプラットフォームの詳細、そして今後の展望まで、非常に濃密な内容が語られました。

AI活用は広告事業からー2016年の決断が今につながる

サイバーエージェントがAIに本格的に舵を切ったのは2016年。

「AI Lab」の設立を皮切りに、広告事業部を「AI事業部」へと再編し、AIによる広告最適化に取り組み始めました。大量の広告データを活用し、画像生成や効果予測などを行う「極み予測AI」シリーズは、同社のAI活用の象徴とも言える存在です。

AIとの親和性が高い広告領域での成功が、他事業への展開を加速させる原動力となりました。

社員全員がAI人材へ「リスキリングとガイドラインの徹底」

『AI活用を技術者だけのものにしない』この方針のもと、サイバーエージェントでは全社員(役員含む)を対象にリスキリング施策を実施しています。

生成AIの基礎知識から業務活用までを学ぶ研修を通じて、社員一人ひとりがAIを“使える”人材へと変化しています。同時に、社内ガイドラインの整備も徹底。新しいツールの導入時には、セキュリティリスクやデータの取り扱いに関する明確なルールが設けられており、スピードと安全性の両立が図られています。

インフラの要・オンプレミスで構築されたMLプラットフォーム

社内のAI活用を支えるのが、CIU(CyberAgentInfrastructureUnit)が構築・運用するオンプレミスのMLプラットフォームです。

このプラットフォームでは、NVIDIAの最新GPU(H100、H200、A100、A40など)を活用し、画像生成や言語モデルの学習・推論を支えています。

インフラの中核にはKubernetesが採用されており、柔軟なリソース管理とマルチテナント対応を実現しています。ストレージにはNetAppが採用されており、以下の理由から選定されたとのことです:

  • Kubernetesとの高い親和性
  • マルチプロトコル対応(NFS、S3など)
  • 高速性と信頼性
  • 複数ユーザーによる同時利用への対応力

物理構成にも工夫があり、GPU間の接続にはInfiniBandではなくEthernetを採用するなど、独自のチャレンジも行われています。

次なる挑戦「ハイブリッドクラウドとセキュアなLLM API」

今後のMLプラットフォームの課題として「アジリティ(柔軟性)」と「セキュリティ」の2点を挙げました。

  1. アジリティ(柔軟性):突発的なリソース要求(例:300TBのストレージ追加)やGPUの故障対応に対し、迅速にスケールできる体制が必要。クラウド連携によるハイブリッド構成を導入することで柔軟なスケーリングを可能にする。
  2. セキュリティ:機密データを外部SaaSに渡すことへの懸念から、オンプレミスで完結するLLM APIの提供を目指す。

これにより、社内データを外部に出すことなく、生成AIの恩恵を受ける環境が整います。

AIは“使う”だけでなく“支える”ものへ、文化と技術の融合

サイバーエージェントの取り組みは、AIを単なるツールとしてではなく、企業文化と技術戦略の融合点として位置づけている点が特徴的です。

その背景には、社内文化として根付いた「挑戦を歓迎する文化」「スピード感のある意思決定」「組織力-技術的な裏付け」があり、AI活用を加速させる土壌が整っています。

そして、そのAI活用を支えるのが、CIUによるMLプラットフォームの存在です。オンプレミスでのGPU基盤構築、Kubernetesによる運用、NetAppによるストレージ管理──これらの技術的選択が、サイバーエージェントのAI戦略を支えています。

今後は、ハイブリッドクラウドやセキュアなLLM APIの提供など、さらに柔軟で安全なAI基盤の構築が進められる予定です。

Chatだけじゃない AI活用 次の一歩

ネットアップ合同会社 ソリューション技術本部 ソリューションアーキテクト本部 本部長 大野 靖夫

大規模言語モデル(LLM)とチャットを利用した生成AIの活用が注目される中、AI活用が社内で停滞してしまう理由と、それを打破するための具体的なアプローチを紹介します。

AI導入は進んだ。でも“使われていない”?

2023年から2024年にかけて、社内チャット+RAG(検索拡張生成)を導入した企業は急増しました。

しかし、実際に現場で使われているかというと、そうでもない。導入したはいいけれど、「便利な検索」で止まってしまい、利用率が伸びない。ROIが低い。そんな声をよく耳にします。

一方で、社員は個人契約したChatGPTやGemini等のAIサービスを業務に使ってしまっている。いわゆるシャドーAIの問題も聞かれます。

これは、企業が社員に提供するAI環境が、業務に本当に役立つ情報を返してくれないから起きている現象です。

「業務に効く文脈」でデータを届ける

AIはユーザからの指示と、指示に答えるためのデータが与えられて動きます。RAGは、”業務の事を知らないAI”にデータを届ける有力な方法です。AIが役立つためには、業務に効く文脈で、最新のデータをAIに届けることが不可欠です。

しかし、現実には「社内規約」や「一般公開情報」ばかりがAIに渡されていて、社員が本当に欲しい情報─自分のチームの資料や、案件ごとのファイル─にAIはアクセスできません。

ここで重要なのが、企業の中にある情報はスコープを持っているという事です。

  • 個人スコープ(自分だけが見られるデータ)
  • チームスコープ(部署やプロジェクト単位で共有されるデータ)
  • 組織スコープ(全社で共有されるデータ)

このスコープを意識してAIからアクセスできるデータを増やさないと、AIは“誰でも見られる情報”しか使えず、結果として「ユーザや業務の事を何も知らないAI」になってしまいます。

ベクトルデータベースと権限制御 「3つのアプローチ」

RAGの仕組みでは、AIに渡すデータを見つけ出すためにベクトルデータベースを使う事が多くあります。ここで課題になるのが「誰に何を見せるか」というスコープに従った権限制御です。

一般的に企業の中にあるデータは、データアクセス権により見える範囲=スコープが制御されています。しかしベクトルデータベースにデータを取り込む際に、このアクセス権の情報が失われてしまうとスコープの広いデータしかベクトルデータベースに入れられないといった問題につながります。元のデータが持つ権限制御を失わないために、以下の3つの方法があります:

  1. プリフィルター方式:ユーザーやグループ毎にベクトルデータベースを分ける等して、ユーザがアクセスできるデータを制御します。実装は最も簡単ですが、ベクトルデータベースが増えすぎる事でベクトルデータベースの更新や運用管理が大変になる事が欠点です。
  2. ポストフィルター方式:検索後に元データのアクセス権を確認して、ユーザがアクセスできるデータを制御します。データがアクセス権を超えて見えてしまう事がなく、安全性は最も高いです。ただし、都度元データに確認するため、元データへのアクセスや性能面で課題があります。
  3. 権限付きインデクシング方式:ベクトルデータ作成時に権限情報をデータベースに一緒に保管し、検索と同時にユーザがアクセスできるデータを制御します。更新の問題は残りますが安全性と性能のバランスが良い実装方法です。

このような仕組みを導入することで、同じチャットUIでも、ユーザーごとに異なる情報を安全に返すことが可能になります。

シャドーAI対策は『禁止』ではなく 『正規ルートの提供』で

社員が個人契約のAIサービスを業務に使ってしまう理由は、「自分の持っているデータを使いたいから」です。だからこそ、企業側が「この方法なら安全に使えるよ」と正規のルートを提供することが重要です。

禁止するだけでは、AI活用は進みません。

NetAppの取り組み“貯める”から“活かす”へ

NetAppは、ストレージベンダーとして30年の歴史がありますが、ユーザが「データを活かす」ことを常に考えてきました。現在はAIによるデータ活用にフォーカスしています。

  • NetApp Neo M365Copilot向けコネクター:ファイル権限を維持したまま、Microsoft Copilotに様々なデータを渡せます。
  • NetApp WorkloadFactory(旧 BlueXP Workload Factory):AWS上で権限制御付きチャットシステムを構築できます。
  • NetApp AI DataEngine(INSIGHT2025発表):ストレージ内のデータを分類・抽出し、AIに渡すためのエンジンです。ONTAP AFXストレージと統合されています。

これらの取り組みは、「ユーザーが自分のデータを、安全に、AIで活用できるようにする」事を意識しています。

AI活用の「次の一歩」は、データガバナンスから始まる

AIを業務に活かすためには、モデルやインフラだけでなく、“使えるデータ”をAIに届ける仕組みが不可欠です。

そのためには、個人・チーム・組織スコープを意識した権限制御と、ガバナンスを維持したデータ連携が求められます。

AIは、導入するだけでは意味がありません。「使われて、活かされて、初めて価値になる。」その“次の一歩”を、今こそ踏み出すタイミングではないでしょうか。

まとめ

今回のイベントを通じて、AIはもはや一部の先進企業だけのものではなく、『業界横断で活用される“戦略資産』へと進化していることが明らかになりました。

NVIDIAとNetAppが提唱する「AIファクトリー」は、AIを“育てる”だけでなく、“製造”し、“収益を生み出す”装置として位置づける新しい視点を提示しました。NTTデータによるスマートAIエージェント構想や、サイバーエージェントのオンプレミスML基盤の取り組みは、AIを企業文化に根付かせるための実践的なアプローチとして非常に示唆に富んでいました。

そして、AI活用の“次の一歩”として語られたのは、データガバナンスとユーザー視点の重要性です。AIが本当に価値を生むためには、業務に効く文脈で、必要なデータを安全に届ける仕組みが不可欠です。

NetAppは、こうした課題に対して、AI時代に最適化されたストレージとデータ管理のソリューションを提供しています。オンプレミスからクラウド、そしてハイブリッド環境まで、柔軟かつ信頼性の高いインフラを通じて、企業のAI活用を支援しています。

庄司 知代 (Tomoyo Shoji)

庄司 知代

2019年4月よりNetAppに入社。IT業界でのマーケティング業務にて長年に渡り培ってきた経験を活かし、ABM、イベント企画・運営、コンテンツマーケティング、広告など幅広くフィールドマーケティング業務に従事しています。

庄司 知代の投稿をすべて見る
Drift chat loading