Quali corsi devo seguire per sostenere questo esame?
E’ necessario avere frequentato il corso Red Hat OpenShift Administration I: Containers & Kubernetes (DO180) o avere equivalente esperienza in OpenShift Container Platform in ambito lavorativo. Inoltre avere frequentato il corso Red Hat OpenShift Administration II: Operating a Production Kubernetes Cluster (DO280) o avere equivalente esperienza in OpenShift Container Platform in ambito lavorativo e aver frequentato il corso Developing and Deploying AI/ML Applications on Red Hat OpenShift AI (AI267) o avere equivalente esperienza nell’utilizzo delle funzionalità di OpenShift AI in ambito lavorativo.
Descrizione esame
Il Red Hat Certified Specialist in OpenShift AI exam valuta la capacità dei candidati di eseguire il deployment e la configurazione di OpenShift AI per creare, distribuire e gestire modelli di machine learning a supporto delle applicazioni abilitate per l’IA.
Il superamento dell’esame consente di ottenere la qualifica di Red Hat Certified Specialist in OpenShift AI utile anche per il conseguimento del certificato Red Hat Certified Architect (RHCA®).
Questo esame si basa su Red Hat OpenShift AI versione 2.8 e Red Hat OpenShift Container Platform versione 4.14.
Argomenti dell'esame
Installazione di Red Hat OpenShift AI (RHOAI)
Configurazione e gestione di RHOAI
-
- Gestione delle autorizzazioni e le risorse di utenti e gruppi
- Gestione degli oggetti DataScienceCluster
- Creazione e pubblicazione di immagini di notebook personalizzate
- Importazione di immagini dei notebook personalizzati
- Gestione dell’eliminazione dei notebook inattivi
- Personalizzazione dell’ambiente di lavoro predefinito e delle dimensioni del server modello
Elaborazione di progetti di data science
-
- Creazione, modifica ed eliminazione di progetti di data science
- Gestione delle autorizzazioni dei progetti di data science
Utilizzo degli ambienti di lavoro di data science
-
- Comprensione dell’ecosistema Jupyter
- Creazione, modifica ed eliminazione degli ambienti di lavoro
- Avvio e arresto degli ambienti di lavoro
- Gestione delle connessioni dati
- Gestione degli oggetti delle attestazioni di volume persistenti
- Esame delle risorse dell’ambiente di lavoro
Utilizzo di Git per gestire i notebook Jupyter in modo collaborativo
-
- Caricamento di un notebook esistente da un repository Git
- Invio di notebook aggiornati a un repository Git
Utilizzo dei modelli di machine learning
-
- Comprensione dei concetti di base del machine learning
- Addestramento di modelli in Python utilizzando le librerie di base più diffuse
- Caricamento di dati in modo scalabile
- Monitoraggio e valutazione del processo di formazione
Salvataggio e caricamento dei modelli
-
- Salvataggio, esportazione e condivisione dei modelli
- Distribuzione dei modelli come applicazioni Python
- Creazione di runtime personalizzati in KServe
- Distribuzione di un modello utilizzando ModelMesh
Creazione di pipeline di data science
-
- Creazione di pipeline con Elyra
- Creazione di pipeline con Kubeflow