Loading video player...
Entra nella mia Accademia AI:https://www.rizzoaiacademy.com/ Vuoi sviluppare soluzioni AI avanzate: https://inferentia.xyz IG: https://www.instagram.com/simorizzo_ai/ In questo video ti mostro il nuovo approccio per costruire una Knowledge Base per AI usando LLM Wiki. Partiamo dalle basi e facciamo un percorso completo: - cos’è RAG (Retrieval Augmented Generation) e quali sono i suoi limiti - come funziona Agentic File Search - perché LLM Wiki rappresenta un’evoluzione importante per la memoria degli agenti AI - come si struttura una wiki persistente in Markdown - come installarla e usarla concretamente - demo pratica step by step L’idea chiave è questa: invece di recuperare frammenti ogni volta da zero, la conoscenza viene compilata, aggiornata e mantenuta nel tempo. È un cambio di paradigma molto interessante per chi vuole costruire agenti AI più affidabili, con memoria esterna più utile, navigabile e cumulativa. Nel video vediamo anche: - differenze pratiche tra RAG, Agentic Search e LLM Wiki - struttura della knowledge base - workflow di ingest, query e manutenzione - casi d’uso reali per ricerca, team, studio e sistemi AI più avanzati Riferimenti: Post di Karpathy: https://x.com/karpathy/status/2039805659525644595 Repo ufficiale / gist: https://gist.github.com/karpathy/442a6bf555914893e9891c11519de94f Scrivimi nei commenti se vuoi che nel prossimo video ti mostri anche come costruire una LLM Wiki locale, integrarla con un agente, oppure confrontarla con un sistema RAG classico. 00:00 Introduzione a LLM Wiki e Andrej Karpathy 01:22 Perché gli LLM hanno bisogno di memoria esterna 02:03 Gen 1: Cos'è il RAG (Retrieval Augmented Generation) 05:05 Gen 2: Agentic File Search e File System 07:25 Limiti del RAG e vantaggi degli Agenti 09:56 Gen 3: LLM Wiki e la visione di Karpathy 11:46 La struttura tecnica: Raw, Wiki, Index e Log 13:11 Obsidian: l'interfaccia per la Knowledge Base 14:26 Come l'AI esplora e risponde usando la Wiki 16:43 Formato MARP e fase di Linting (Health Check) 18:00 I tre livelli dell'architettura 21:07 Tutorial: Installazione di Obsidian e Web Clipper 22:36 Configurazione dell'agente AI e prompt iniziale 24:39 Esempio pratico: Ingestione dati dal Web 27:36 Creazione della Knowledge Base in tempo reale 30:10 Querying: Interrogare la propria Wiki 32:38 Case Study: Inserimento e analisi di documenti PDF 37:32 Generare presentazioni automatiche con MARP 39:36 Manutenzione automatica della Wiki (Linting) 40:36 Confronto finale tra RAG, Agentic e LLM Wiki 42:31 Conclusioni e riflessioni finali #agenticai #llm #aiagent