Loading video player...
Descubre cómo utilizar Codex CLI de forma gratuita e ilimitada ejecutando modelos de lenguaje en local para optimizar tu flujo de desarrollo de software. En este video exploramos la implementación de Codex CLI utilizando Ollama y el modelo GPT OSS20B. Analizamos las ventajas de procesar la información en nuestra propia PC, eliminando las restricciones de tokens y costos de las versiones en la nube, y comparamos su rendimiento frente a herramientas como GitHub Copilot. Verás en tiempo real cómo la herramienta analiza proyectos completos, genera resúmenes de estructura en archivos markdown y ejecuta tareas complejas de refactorización, como la eliminación de funcionalidades específicas en todo el código fuente. También revisamos comandos útiles como el resumen de contexto para evitar límites de memoria en conversaciones extensas. 📝 Índice: 00:00:00 Ventajas de usar modelos locales vs servidores en línea 00:00:44 Generación de archivos de resumen del proyecto 02:34 Qué es Codex CLI y cómo funciona 03:38 Comandos de gestión de modelo y resumen de contexto 04:54 Prueba de modificación: eliminar funcionalidad de membresías 06:40 Comparativa con GitHub Copilot y alternativas 08:35 Análisis de tutoriales y flujo de trabajo de Codex 13:00 Pruebas de consistencia en la eliminación de código #programacion #inteligenciaartificial #codexcli #ollama #desarrolloweb #modeloslocales #ia #vscode Contacto: nichonauta@gmail.com Web: nichonauta.com URL del Directo Completo: https://www.youtube.com/watch?v=h3rhMw3CM8E