Umfang der Prüfung
Diese Prüfung richtet sich an technische Experten, die Kenntnisse über den Aufbau von Infrastrukturen für KI-Workloads erworben haben und über sechs bis 12 Monate technische Erfahrung mit KI verfügen.
Sie sollten über Folgendes verfügen:
- Verständnis der NetApp KI-Lösungen, KI-Konzepte, des KI-Lebenszyklus, KI-Software- und -Hardwarearchitektur sowie allgemeiner Herausforderungen
Worauf Sie geprüft werden
Bereich 1. KI-Übersicht (15 %)
- Fähigkeit zum Training und zur Inferenz demonstrieren
- Training, Inferenz und Prognosen
- Vorteile von Machine Learning beschreiben
- KI, Machine Learning, Deep Learning
- Verwendung verschiedener Algorithmustypen unterscheiden
- Überwachtes, unüberwachtes, Reinforcement Learning
- Einsatz von KI in unterschiedlichen Branchen beschreiben
- Digitale Zwillinge, Agents, Gesundheitswesen
- Konvergenz von KI, High-Performance-Computing und Analytik beschreiben
- Nutzung derselben Infrastruktur für KI, HPC und Analytik
- Einsatz der KI On-Premises, in der Cloud und am Edge bestimmen
- Vorteile, Risiken
Bereich 2. KI-Lebenszyklus (27 %)
- Unterschiede zwischen prädiktiver KI und generativer KI bestimmen
- Einsatz von prädiktiver und generativer KI in der Industrie
- Auswirkungen von prädiktiver KI beschreiben
- Klassifizierung, neuronale Netze, Verstärkung, Präferenz bestimmen
- Auswirkungen generativer Texte, Bilder, Videos und Entscheidungen in der generativen KI beschreiben
- Transformatormodelle, Halluzinationen, Retrieval Augmented Generation (RAG) vs. Feinabstimmung
- Bestimmen, wie NetApp Tools Datenaggregation, Datenbereinigung und Datenmodellierung ermöglichen
- BlueXP Klassifizierung, XCP, CopySync
- Anforderungen für die Modellgenerierung bestimmen
- Daten, Code, Compute und Zeit, Szenarien
- Unterschiede zwischen Modellbildung und Feinabstimmung von Modellen vergleichen
- Modellbildung = Daten, Code; Feinabstimmung = bestehendes Modell, Daten, Code
- Anforderungen für die Inferenz bestimmen
- Modell in den Speicher laden (Modellgröße); Retrieval Augmented Generation (RAG) oder andere Datenabfragen (Agents), NetApp Lösungen für die Datenmobilität
Bereich 3: KI-Softwarearchitekturen (18 %)
- AI MLOps/LLMOps Ecosystems und allgemeine Nutzung beschreiben
- Allgemeiner Überblick über AWS SageMaker, Google VertexAI, Microsoft AzureML, Domino Data Labs, RunAI, MLflow, KubeFlow, TensorFlow Extended
- Unterschiede zwischen Juypter Notebooks und Pipelines bestimmen
- Notebooks für Experimente, Pipelines für iterative Entwicklung (Produktion)
- Funktionsweise des NetApp DataOps Toolkit beschreiben
- Python; Kubernetes vs. Standalone; Grundfunktionen des NetApp DataOps Toolkit
- Fähigkeit zur Ausführung von skalierbaren KI-Workloads mit Kubernetes demonstrieren
- Trident
- Verwendung von BlueXP Softwaretools zum Erstellen von KI-Lösungen beschreiben
- GenAI Toolkit, Workload Factory, Vorgehensweise für die sichere Nutzung privater Daten mit generativer KI
Bereich 4: KI-Hardwarearchitekturen (18 %)
- Topologien der Datenaggregation beschreiben
- Warehouses, Data Lakes und Lakehouses
- Computing-Architekturen beschreiben, die mit KI-Workloads verwendet werden
- CPU, GPU – NVIDIA, TPU, FPGA
- Netzwerkarchitektur für KI-Workloads beschreiben
- Ethernet vs. Infiniband; Relevanz von RDMA und GPUDirect Storage
- Storage-Architekturen identifizieren, die für KI-Workloads verwendet werden
- C-Series, A-Series, EF-Series und StorageGRID
- Anwendungsfälle für verschiedene Protokolle bestimmen
- Datei, Objekt, parallele Filesystems, POSIX, auf Hosts installierte Clients usw., Datei im Vergleich zu Objekt oder beides; Dateidaten zur Analyse in objektbasierte Services integrieren (Cloud- und On-Premises-Services)
- Vorteile von SuperPOD-Architekturen mit NetApp bestimmen
- E-Series, BeeGFS, Integration mit Enterprise-Daten
- Anwendungsfälle für BasePod- und OVX-Architekturen beschreiben
- AIPod, FlexPod AI, OVX
Bereich 5: Häufige Herausforderungen im Bereich KI (22 %)
- Dimensionierung von Storage- und Computing-Ressourcen für Training- und Inferenz-Workloads bestimmen
- C-Series im Vergleich zu A-Series; GPU-Speicher und Chip-Architekturen
- 5.2 Lösungen für Code, Daten und Modellrückverfolgbarkeit beschreiben
- Snapshots und Klonen
- 5.3 Datenzugriff und -verschiebung für KI-Workloads beschreiben
- SnapMirror und FlexCache. XCP, Backup und Recovery, CopySync
- 5.4 Lösungen zur Kostenoptimierung beschreiben
- Storage-Effizienz, FabricPool, FlexCache, SnapMirror, Einblicke in die Dateninfrastruktur, Keystone
- 5.5 Lösungen für sicheren Storage für KI-Workloads beschreiben
- Schlechte Daten = schlechte KI; autonomer Ransomware-Schutz, Verifizierung durch mehrere Administratoren
- 5.6 Lösungen für maximale Performance in KI-Workloads beschreiben
- Vorgehensweise für die vollständige Auslastung von GPUs, Positionierung von NetApp Produkten für spezifische Workloads und Architekturen