Konto anlegen
Menü

NetApp Certified AI Expert 

NetApp Logo

Übersicht

Absolvieren Sie die Prüfung zum NetApp Certified AI Expert, um technologisch auf dem neuesten Stand zu bleiben. Mit dem Erwerb dieser Zertifizierung werden die Fähigkeiten und Kenntnisse in Zusammenhang mit NetApp KI-Lösungen und zugehörigen Branchentechnologien validiert.

Diese Prüfung richtet sich an technische Experten, die Kenntnisse über den Aufbau von Infrastrukturen für KI-Workloads erworben haben und über sechs bis 12 Monate technische Erfahrung mit KI verfügen.

Sie sollten über Folgendes verfügen:

  • Verständnis der NetApp KI-Lösungen, KI-Konzepte, des KI-Lebenszyklus, KI-Software- und -Hardwarearchitektur sowie allgemeiner Herausforderungen

Worauf Sie geprüft werden

Bereich 1. KI-Übersicht (15 %)

  • Fähigkeit zum Training und zur Inferenz demonstrieren
  • Training, Inferenz und Prognosen
  • Vorteile von Machine Learning beschreiben
  • KI, Machine Learning, Deep Learning
  • Verwendung verschiedener Algorithmustypen unterscheiden
  • Überwachtes, unüberwachtes, Reinforcement Learning
  • Einsatz von KI in unterschiedlichen Branchen beschreiben
  • Digitale Zwillinge, Agents, Gesundheitswesen
  • Konvergenz von KI, High-Performance-Computing und Analytik beschreiben
  • Nutzung derselben Infrastruktur für KI, HPC und Analytik
  • Einsatz der KI On-Premises, in der Cloud und am Edge bestimmen
  • Vorteile, Risiken

Bereich 2. KI-Lebenszyklus (27 %)

  • Unterschiede zwischen prädiktiver KI und generativer KI bestimmen
  • Einsatz von prädiktiver und generativer KI in der Industrie
  • Auswirkungen von prädiktiver KI beschreiben
  • Klassifizierung, neuronale Netze, Verstärkung, Präferenz bestimmen
  • Auswirkungen generativer Texte, Bilder, Videos und Entscheidungen in der generativen KI beschreiben
  • Transformatormodelle, Halluzinationen, Retrieval Augmented Generation (RAG) vs. Feinabstimmung
  • Bestimmen, wie NetApp Tools Datenaggregation, Datenbereinigung und Datenmodellierung ermöglichen
  • BlueXP Klassifizierung, XCP, CopySync
  • Anforderungen für die Modellgenerierung bestimmen
  • Daten, Code, Compute und Zeit, Szenarien
  • Unterschiede zwischen Modellbildung und Feinabstimmung von Modellen vergleichen
  • Modellbildung = Daten, Code; Feinabstimmung = bestehendes Modell, Daten, Code
  • Anforderungen für die Inferenz bestimmen
  • Modell in den Speicher laden (Modellgröße); Retrieval Augmented Generation (RAG) oder andere Datenabfragen (Agents), NetApp Lösungen für die Datenmobilität

Bereich 3: KI-Softwarearchitekturen (18 %)

  • AI MLOps/LLMOps Ecosystems und allgemeine Nutzung beschreiben
  • Allgemeiner Überblick über AWS SageMaker, Google VertexAI, Microsoft AzureML, Domino Data Labs, RunAI, MLflow, KubeFlow, TensorFlow Extended
  • Unterschiede zwischen Juypter Notebooks und Pipelines bestimmen
  • Notebooks für Experimente, Pipelines für iterative Entwicklung (Produktion)
  • Funktionsweise des NetApp DataOps Toolkit beschreiben
  • Python; Kubernetes vs. Standalone; Grundfunktionen des NetApp DataOps Toolkit
  • Fähigkeit zur Ausführung von skalierbaren KI-Workloads mit Kubernetes demonstrieren
  • Trident
  • Verwendung von BlueXP Softwaretools zum Erstellen von KI-Lösungen beschreiben
  • GenAI Toolkit, Workload Factory, Vorgehensweise für die sichere Nutzung privater Daten mit generativer KI

Bereich 4: KI-Hardwarearchitekturen (18 %)

  • Topologien der Datenaggregation beschreiben
  • Warehouses, Data Lakes und Lakehouses
  • Computing-Architekturen beschreiben, die mit KI-Workloads verwendet werden
  • CPU, GPU – NVIDIA, TPU, FPGA
  • Netzwerkarchitektur für KI-Workloads beschreiben
  • Ethernet vs. Infiniband; Relevanz von RDMA und GPUDirect Storage
  • Storage-Architekturen identifizieren, die für KI-Workloads verwendet werden
  • C-Series, A-Series, EF-Series und StorageGRID
  • Anwendungsfälle für verschiedene Protokolle bestimmen
  • Datei, Objekt, parallele Filesystems, POSIX, auf Hosts installierte Clients usw., Datei im Vergleich zu Objekt oder beides; Dateidaten zur Analyse in objektbasierte Services integrieren (Cloud- und On-Premises-Services)
  • Vorteile von SuperPOD-Architekturen mit NetApp bestimmen
  • E-Series, BeeGFS, Integration mit Enterprise-Daten
  • Anwendungsfälle für BasePod- und OVX-Architekturen beschreiben
  • AIPod, FlexPod AI, OVX

Bereich 5: Häufige Herausforderungen im Bereich KI (22 %)

  • Dimensionierung von Storage- und Computing-Ressourcen für Training- und Inferenz-Workloads bestimmen
  • C-Series im Vergleich zu A-Series; GPU-Speicher und Chip-Architekturen
  • 5.2 Lösungen für Code, Daten und Modellrückverfolgbarkeit beschreiben
  • Snapshots und Klonen
  • 5.3 Datenzugriff und -verschiebung für KI-Workloads beschreiben
  • SnapMirror und FlexCache. XCP, Backup und Recovery, CopySync
  • 5.4 Lösungen zur Kostenoptimierung beschreiben
  • Storage-Effizienz, FabricPool, FlexCache, SnapMirror, Einblicke in die Dateninfrastruktur, Keystone
  • 5.5 Lösungen für sicheren Storage für KI-Workloads beschreiben
  • Schlechte Daten = schlechte KI; autonomer Ransomware-Schutz, Verifizierung durch mehrere Administratoren
  • 5.6 Lösungen für maximale Performance in KI-Workloads beschreiben
  • Vorgehensweise für die vollständige Auslastung von GPUs, Positionierung von NetApp Produkten für spezifische Workloads und Architekturen
Drift chat loading