Menu

Esperto di AI con certificazione NetApp 

Logo NetApp

Panoramica

Supera l'esame NetApp Certified AI Expert per rimanere al passo con l’evoluzione tecnologica. Questa certificazione attesta le competenze e le conoscenze associate alle soluzioni AI di NetApp e alle relative tecnologie di settore.

Questo esame è rivolto ai professionisti tecnici con esperienza nella creazione di infrastrutture per carichi di lavoro AI e che hanno da sei a dodici mesi di esperienza tecnica con l'AI.

Dovrai avere:

  • Conoscenza delle soluzioni AI di NetApp, dei concetti di intelligenza artificiale, del ciclo di vita dell’AI, dell’architettura software e hardware per l’AI e delle sfide più comuni.

Argomenti del test

Dominio 1. Panoramica sull'AI (15%)

  • Dimostrare la capacità di eseguire addestramento e inferenza
  • Addestramento, inferenza e previsioni
  • Descrivere i vantaggi dell'apprendimento automatico
  • AI, machine learning, deep learning
  • Differenziare l'uso tra diversi tipi di algoritmo
  • Supervisionato, non supervisionato e di rinforzo
  • Descrivere l'utilizzo dell'AI nei vari settori
  • Gemelli digitali, agenti, settore sanitario
  • Descrivere convergenza dell'AI, high-performance computing e analytics
  • Sfruttare la stessa infrastruttura per AI, HPC e analytics
  • Determinare l'utilizzo dell'AI on-premise, nel cloud e a livello perimetrale
  • Vantaggi, rischi

Dominio 2. Ciclo di vita dell'AI (27%)

  • Determinare le differenze tra AI predittiva e AI generativa
  • Uso nel settore dell'AI predittiva e generativa
  • Descrivere l'impatto dell'AI predittiva
  • Classificazione, reti neurali, rinforzo, determinare la preferenza
  • Descrivere l'impatto di testo generativo, immagini, video e decisioni nell'intelligenza artificiale generativa
  • Modelli di trasformatori, allucinazioni, retrieval augmented generation (RAG) vs. messa a punto
  • Determinare in che modo gli strumenti NetApp possono consentire l'aggregazione, la pulizia e la modellazione dei dati
  • Classificazione BlueXP, XCP, CopySync
  • Determinare i requisiti necessari per la generazione del modello
  • Dati, codice, calcolo e tempo, scenari
  • Confrontare le differenze tra la creazione e la messa a punto dei modelli
  • Costruzione modello = dati, codice; messa a punto = modello, dati, codice esistenti
  • Determinare i requisiti necessari per l'inferenza
  • Caricamento del modello nella memoria (dimensioni del modello); retrieval augmented generation (RAG) o altre ricerche di dati (agenti), soluzioni NetApp per la mobilità dei dati

Dominio 3: architetture software AI (18%)

  • Descrivere gli ecosistemi e l'utilizzo generale di AI MLOps/LLMOps
  • Panoramica generale di AWS SageMaker, Google VertexAI, Microsoft AzureML, Domino Data Labs, RunAI, MLflow, KubeFlow, TensorFlow Extended
  • Determina le differenze tra i notebook Juypter e le pipeline
  • Notebook per la sperimentazione, pipeline per lo sviluppo iterativo (produzione)
  • Descrivere il funzionamento del toolkit di NetApp DataOps
  • Python; Kubernetes vs. standalone; funzionalità di base fornite dal toolkit NetApp DataOps
  • Dimostra la capacità di eseguire carichi di lavoro AI su larga scala con Kubernetes
  • Trident
  • Descrivere gli utilizzi degli strumenti software BlueXP per creare soluzioni AI
  • GenAI Toolkit, Workload Factory, come utilizzare in modo sicuro i dati privati con l'Intelligenza Artificiale Generativa

Dominio 4: architetture hardware AI (18%)

  • Descrivere le topologie di aggregazione dei dati
  • Warehouse, data lake e lakehouse
  • Descrivere le architetture di calcolo utilizzate con i carichi di lavoro AI
  • CPU, GPU - Nvidia, TPU, FPGA
  • Descrivere i tipi di rete utilizzati con i carichi di lavoro AI
  • Ethernet vs. Infiniband; Rilevanza di RDMA e GPUDirect Storage
  • Identifica le architetture di storage utilizzate con i carichi di lavoro AI
  • C-Series, A-Series, EF-Series, StorageGRID
  • Determina i casi di utilizzo di protocolli diversi
  • file, oggetti, file system paralleli, POSIX, client installati sugli host e così via, confronto fra file e oggetti o entrambi; integrare i dati dei file con servizi basati su oggetti (cloud e on-premise), per gli analytics
  • Determinare i vantaggi delle architetture SuperPOD con NetApp
  • E-Series, BeeGFS, integrazione con i dati aziendali
  • Descrivere i casi d'utilizzo per le architetture BasePod e OVX
  • AIPod, FlexPod AI, OVX

Dominio 5: sfide comuni dell'AI (22%)

  • Determinare come dimensionare storage e calcolo per i carichi di lavoro di addestramento e inferenza
  • C-Series e A-Series; memoria GPU e architetture di chip
  • 5.2 Descrivere le soluzioni per la tracciabilità di codici, dati e modelli
  • Snapshot e clonazione
  • 5.3 Descrivere come accedere e spostare i dati per i carichi di lavoro AI
  • SnapMirror e FlexCache. XCP, Backup e recovery, CopySync
  • 5.4 Descrivere le soluzioni per ottimizzare i costi
  • Efficienze dello storage, FabricPool, FlexCache, SnapMirror, Data Infrastructure Insights, Keystone
  • 5.5 Descrivere le soluzioni per proteggere lo storage per i carichi di lavoro AI
  • Dati non validi = AI non valida; protezione autonoma da ransomware, verifica Multi-Admin
  • 5.6 Descrivere le soluzioni per massimizzare le performance nei carichi di lavoro AI
  • Come garantire l'utilizzo ottimale delle GPU e il posizionamento dei prodotti NetApp per carichi di lavoro e architetture specifici
Drift chat loading