メニュー

NetApp Certified AI Expert 

NetAppのロゴ

概要

NetApp Certified AI Expert試験に合格して、テクノロジを先取りしましょう。この認定資格を取得すると、NetAppのAIソリューションとその関連の業界テクノロジに関係するスキルと知識を備えていることを証明できます。

この試験は、AIワークロード向けのインフラ構築に関する知識を習得し、AIに関する技術に6~12カ月携わった経験がある技術担当者を対象としています。

この試験では、以下に関する知識が求められます。

  • NetAppのAIソリューション、AIの概念、AIのライフサイクル、AIソフトウェアとハードウェアのアーキテクチャ、および一般的な課題についての理解。

出題範囲

ドメイン1:AIの概要(15%)

  • トレーニングと推論のスキルを実証する
  • トレーニング、推論、予測
  • 機械学習のメリットについて説明する
  • AI、機械学習、ディープ ラーニング
  • 各アルゴリズム タイプの用途を区別する
  • 教師あり、教師なし、強化
  • さまざまな業界でのAIの活用方法を説明する
  • デジタル ツイン、エージェント、医療
  • AI、ハイパフォーマンス コンピューティング、分析の統合について説明する
  • 同じインフラをAI、HPC、分析に活用する
  • オンプレミス、クラウド、エッジでのAIの用途を判断する
  • メリット、リスク

ドメイン2:AIのライフサイクル(27%)

  • 予測AIと生成AIの違いを見分ける
  • 業界での予測AIと生成AIの活用方法
  • 予測AIの影響について説明する
  • 分類、ニューラル ネットワーク、強化、好みの判断
  • 生成AIによるテキスト、画像、ビデオ、意思決定が及ぼす影響について説明する
  • トランスフォーマー モデル、ハルシネーション、検索拡張生成(RAG)とファインチューニングの違い
  • NetAppのツールでデータ集約、データ クレンジング、データ モデリングを実現する方法を確認する
  • BlueXP分類サービス、XCP、CopySync
  • モデル生成に必要な要件を特定する
  • データ、コード、コンピューティングと時間、シナリオ
  • モデル構築モデルとファインチューニング モデルの違いを比較する
  • モデル構築 = データ、コード:ファインチューニング = 既存のモデル、データ、コード
  • 推論に必要な要件を特定する
  • メモリへのモデルのロード(モデル サイズ)、検索拡張生成(RAG)、またはその他のデータ ルックアップ(エージェント)、NetAppデータ モビリティ ソリューション

ドメイン3:AIソフトウェア アーキテクチャ(18%)

  • AI MLOps / LLMOpsエコシステムと一般的な用途について説明する
  • AWS Sagemaker、Google VertexAI、Microsoft AzureML、Domino Data Labs、RunAI、MLflow、KubeFlow、TensorFlow Extendedの概要
  • Jupyter Notebookとパイプラインの違いを区別する
  • Notebookは実験用、パイプラインは反復開発用(本番環境)
  • NetApp DataOps Toolkitの仕組みを説明する
  • Python、Kubernetesとスタンドアロンの違い、NetApp DataOps Toolkitが提供する基本機能
  • Kubernetesを使用してAIワークロードを大規模に実行できることを実証する
  • Trident
  • BlueXPソフトウェア ツールを使用したAIソリューションの構築について説明する
  • 生成AIツールキット、ワークロード ファクトリ、生成AIでプライベート データを安全に使用する方法

ドメイン4:AIハードウェア アーキテクチャ(18%)

  • データ集約トポロジについて説明する
  • ウェアハウス、データ レイク、レイクハウス
  • AIワークロードで使用されるコンピューティング アーキテクチャについて説明する
  • CPU、GPU - NVIDIA、TPU、FPGA
  • AIワークロードで使用されるネットワーク アーキテクチャについて説明する
  • イーサネットとInfinibandの違い、RDMAとGPUDirect Storageの関連性
  • AIワークロードで使用されるストレージ アーキテクチャを特定する
  • Cシリーズ、Aシリーズ、EFシリーズ、StorageGRID
  • さまざまなプロトコルのユースケースを特定する
  • ファイル、オブジェクト、並列ファイルシステム、POSIX、ホストにインストールしたクライアントなど(ファイルとオブジェクト、またはその両方)。ファイル データをオブジェクトベースのサービス(クラウドとオンプレミス)に統合して分析に使用する
  • NetAppを使用したSuperPODアーキテクチャのメリットを特定する
  • Eシリーズ、BeeGFS、エンタープライズ データとの統合
  • BasePodアーキテクチャとOVXアーキテクチャのユースケースを説明する
  • AIPod、FlexPod AI、OVX

ドメイン5:AIに関する一般的な課題(22%)

  • トレーニングと推論のワークロード向けにストレージとコンピューティングをサイジングする方法を決定する
  • CシリーズとAシリーズの比較:GPUのメモリとチップ アーキテクチャ
  • 5.2 コード、データ、モデルのトレーサビリティのソリューションについて説明する
  • Snapshotとクローニング
  • 5.3 AIワークロードのデータにアクセスして移動する方法を説明する
  • SnapMirrorとFlexCache。XCP、バックアップとリカバリ、CopySync
  • 5.4 コストを最適化するソリューションについて説明する
  • Storage Efficiency、FabricPool、FlexCache、SnapMirror、データインフラに関する分析情報、Keystone
  • 5.5 AIワークロード向けのストレージを保護するソリューションについて説明する
  • 不正なデータ = 不正なAI:自律型ランサムウェア対策、マルチ管理者検証
  • 5.6 AIワークロードでパフォーマンスを最大化するソリューションについて説明する
  • GPUを最大限に活用する方法、特定のワークロードやアーキテクチャに対するNetApp製品の位置付け
Drift chat loading