L’intelligenza artificiale generativa sta rivoluzionando il modo in cui le aziende sviluppano applicazioni, e Retrieval-Augmented Generation (RAG) rappresenta una delle tecniche più innovative per migliorare la qualità delle risposte fornite dai modelli LLM (Large Language Models).
Il nostro corso intensivo di 8 ore ti fornirà competenze pratiche su RAG e i principali framework LLM, consentendoti di costruire applicazioni AI più efficienti, precise e personalizzabili.Partecipando, scoprirai come ottimizzare l’uso di modelli linguistici avanzati, integrando informazioni esterne per migliorare la generazione di contenuti e la gestione dei dati.
Il corso è altamente pratico, pensato per developer, data scientist e professionisti del digital marketing che vogliono sfruttare al massimo le potenzialità dell’AI nei propri progetti.Imparerai a lavorare con framework all’avanguardia come LangChain e LlamaIndex, ottimizzando l’interazione tra dati strutturati e modelli di linguaggio.
Non è un corso teorico, ma un percorso hands-on per acquisire competenze subito applicabili. Se vuoi sviluppare applicazioni AI avanzate e scalabili, migliorare l’efficacia delle risposte AI e lavorare con le ultime innovazioni del settore, questo è il corso giusto per te!
Prezzo: € 489,00
Durata: 8 ore
Numero Minimo Partecipanti: 5
Numero Massimo Partecipanti: 15
Per maggiori informazioni sul programma, una volta compilato il modulo, un nostro consulente si metterà in contatto con te per fornirti tutte le informazioni nel dettaglio
Una volta che avrai l'accesso al Video Corso, a tua discrezione (sì hai capito bene potrai personalizzare il calendario delle sessioni di tutoraggio!) sceglierai il giorno e l'orario in cui svolgere la sessione one to one, successivamente sarà la scuola poi a comunicarti il calendario delle 8 ore da remoto di gruppo.
1. Introduzione agli LLM e alla RAG (Retrieval-Augmented Generation): Cos'è un LLM e come funziona? Cosa significa RAG e come si integra con gli LLM? Differenze tra i principali LLM open-source (ad esempio, GPT-J, LLaMA, Falcon, Mistral). 2. Setup di un ambiente di sviluppo per LLM: Strumenti e framework utili per lavorare con gli LLM: PyTorch, TensorFlow. Hugging Face Transformers. Configurazione della macchina per ospitare un modello: requisiti hardware (CPU/GPU, RAM, memoria). Installazione e utilizzo di Docker per semplificare l’hosting. Settaggi base per la virtualizzazione se lavori su risorse limitate. 3. Ospitare un LLM sulla tua macchina: Come scaricare e configurare modelli open-source come: GPT-NeoX/GPT-J. LLaMA o Mistral. BLOOM o Falcon. Configurare un'inferenza ottimizzata: utilizzo di quantizzazione per ridurre il carico hardware. Accelerazione con GPU (es. CUDA su NVIDIA). Integrare API REST per interagire con il modello. 4. Ottimizzazioni per sistemi locali: Come gestire modelli di grandi dimensioni su macchine con risorse limitate. Tecniche come fine-tuning e low-rank adaptation (LoRA) per personalizzare il modello. Utilizzo di modelli leggeri (es. Alpaca, Vicuna). 5. Implementare un sistema RAG: Introduzione a RAG: come combinare modelli di linguaggio con un motore di ricerca interno. Strumenti per il Retrieval: Integrazione con vettorializzatori come FAISS, Pinecone o Weaviate. Creare e indicizzare un database di conoscenze personalizzato. Come collegare il database vettoriale al modello per domande/risposte dinamiche. 6. Sviluppare applicazioni AI: Creare chatbot, assistenti personali o altre applicazioni basate su LLM. Integrazione con framework web come Flask o FastAPI. Generazione di pipeline per elaborazione avanzata del linguaggio. 7. Deployment: Deployment su cloud: AWS, Google Cloud, Azure, o Vultr. Differenze tra hosting locale e distribuzione cloud. Configurazioni di sicurezza e ottimizzazione dei costi. --- Argomenti avanzati 8. Addestramento personalizzato: Come preparare i tuoi dataset per il fine-tuning di un modello. Addestrare un modello da zero (per modelli piccoli). Tecniche di ottimizzazione durante il fine-tuning. 9. Etica e limiti: Come assicurarti che il tuo sistema AI sia etico e sicuro. Limiti degli LLM e come gestirli (es. hallucination e bias). 10. Tools utili: Uso di Hugging Face per scaricare, esplorare e modificare modelli. Notebook Jupyter per prototipazione rapida. Gestione delle dipendenze con Poetry o Conda.
- buona conoscenza di HTML, CSS, PHP, JavaScript e basi Python
Dai un'occhiata alle nostre Risorse gratuite