Loading video player...
Continuamos donde lo dejamos la semana pasada. Si en el directo anterior construimos un agente funcional con LangChain/LangGraph, tools y memoria, ahora damos el siguiente paso lógico: integrarlo con MCP (Model Context Protocol). MCP permite que tu agente se conecte a servidores externos y descubra herramientas de forma dinámica y estandarizada, sin tener que programar cada integración manualmente. Una arquitectura limpia, extensible y alineada con cómo se están construyendo los agentes en producción hoy. En esta sesión verás cómo implementarlo paso a paso, entendiendo los principios detrás del protocolo, no solo el código. Aquí tenéis el enlace con el código actualizado: https://colab.research.google.com/drive/1z3CvUjxGCG6uh3IxAvxZS4Tm9tIGx-85?usp=sharing 00:00:00 Inicio del directo y presentación 00:03:01 ¿Qué es MCP (Model Context Protocol)? Introducción al estándar 00:05:06 Explicación visual: Evolución de las tools tradicionales a MCP 00:10:34 Ventajas de centralizar herramientas en un servidor MCP 00:14:44 Seguridad y acceso a recursos en el protocolo 00:16:03 Repaso del stack tecnológico: LangChain, LangGraph y Gemini 00:18:44 Configuración de memoria y autenticación de APIs 00:25:15 Implementación técnica del Cliente MCP en Python 00:26:32 Configuración de servidores: Tavily y File System 00:33:58 Cómo integrar herramientas personalizadas (Calculadora) 00:37:46 Configuración del agente y gestión de hilos de conversación 00:42:12 Demo en vivo: Búsquedas, matemáticas y gestión de archivos 00:46:44 Conclusiones y próximos directos sobre RAG #LangChain #mcp #LangGraph #AgentesIA #Python #InteligenciaArtificial