Dev&Ops Podcast By Douglas Barahona & Juan Ramos cover art

Dev&Ops

Dev&Ops

By: Douglas Barahona & Juan Ramos
Listen for free

Dev&Ops es el espacio donde hablamos de cultura tech, compartimos anécdotas reales y damos consejos prácticos para todo entusiasta del mundo del desarrollo y la tecnología. Acompáñanos a descubrir las últimas tendencias, aprender de nuestras experiencias y recibir tips que te ayudarán a destacar en este entorno digital en constante evolución.© 2025 Dev&Ops Podcast Biographies & Memoirs Social Sciences
Episodes
  • Dev&Ops - EP054 - IA Local vs IA en la Nube: ¿Realmente vale la pena correr modelos en tu computadora?
    Mar 30 2026

    En este episodio hablamos a fondo sobre una de las preguntas más comunes hoy en día en inteligencia artificial: ¿es mejor usar modelos en la nube o correr IA en local?

    Compartimos experiencias reales probando modelos locales, los retos de hardware, costos ocultos, rendimiento y qué tan viable es realmente para el día a día. También exploramos casos prácticos donde sí tiene sentido usar IA en local y cuándo definitivamente no vale la pena.

    Si estás considerando montar tu propio entorno de IA o quieres optimizar costos, este episodio te va a dar claridad basada en experiencia real, no en “venta de humo”.

    🔍 En este episodio aprenderás:

    • Qué es realmente la IA en local y cómo funciona
    • Diferencia entre modelos “open source” y “open weights”
    • Limitaciones reales de hardware (RAM, VRAM, contexto)
    • Cuándo sí tiene sentido usar modelos locales
    • Por qué la nube sigue siendo la mejor opción en muchos casos
    • Casos prácticos donde modelos pequeños funcionan muy bien
    • Cómo balancear costo, rendimiento y tiempo en tu workflow

    📑 Capítulos:
    (00:00) Introducción y contexto del episodio
    (02:00) Nuevo integrante en la familia y regreso al podcast
    (04:30) Tema del episodio: IA en local vs en la nube
    (07:30) ¿Qué es la IA en local?
    (10:30) Open source vs open weights
    (14:00) Evolución de modelos (Llama, Qwen, etc.)
    (18:30) Limitaciones reales del hardware
    (22:00) Quantization explicado
    (26:30) Experimentos en hardware limitado
    (30:00) Casos de uso prácticos con modelos pequeños
    (35:30) Debate: IA local vs nube
    (42:00) Costos, planes y modelos en la nube
    (48:00) Problemas reales de rendimiento en local
    (52:00) Privacidad: mitos y riesgos
    (56:30) Casos donde sí vale la pena IA local
    (01:02:00) Conclusiones y recomendaciones
    (01:10:00) Cierre del episodio

    Show more Show less
    1 hr and 12 mins
  • Dev&Ops - EP053 - Errores con Docker que rompen producción (y cómo evitarlos)
    Mar 23 2026

    En este episodio hablamos de uno de los temas más mal entendidos al trabajar con contenedores: por qué “Docker rompe producción”… cuando en realidad el problema es cómo lo operamos.

    A partir de experiencias reales migrando de VMs a contenedores, exploramos errores comunes que suelen pasar desapercibidos en desarrollo pero explotan en producción. Desde tratar contenedores como máquinas virtuales hasta no definir límites de recursos, usar latest o construir imágenes gigantes.

    También abordamos errores de “día 2” como manejo de logs, secretos, health checks y seguridad, que pueden tumbar sistemas completos si no se manejan correctamente.

    🔍 En este episodio aprenderás:

    • Por qué los contenedores no son el problema, sino su operación
    • El error de tratar contenedores como VMs (y cómo cambiar esa mentalidad)
    • Cómo evitar caídas por falta de límites de CPU y memoria
    • Por qué nunca deberías usar latest en producción
    • Cómo optimizar imágenes Docker para mejorar performance y despliegues
    • Errores comunes en logs, secretos y health checks en entornos productivos

    📑 Capítulos:
    (00:00) Introducción y contexto del episodio
    (02:05) ¿Los contenedores realmente rompen producción?
    (05:10) Error #1: Tratar contenedores como VMs (pet vs cattle)
    (12:50) Error #2: No definir límites de recursos
    (19:40) Error #3: Usar el tag latest en producción
    (25:30) Error #4: Imágenes Docker pesadas
    (32:20) Errores de fase 2: logs, secretos, seguridad y health checks
    (39:30) Conclusiones y recomendaciones finales

    Show more Show less
    43 mins
  • Dev&Ops - EP052 - Docker Desktop en la era de la IA: LLMs locales y MCP Servers para DevOps
    Mar 16 2026

    La inteligencia artificial se ha robado la atención de toda la industria tecnológica, pero eso no significa que herramientas clave como Docker hayan desaparecido del flujo de trabajo de desarrollo y operaciones. En este episodio hablamos sobre cómo Docker Desktop sigue siendo una pieza fundamental en el desarrollo moderno, incluso en plena era de los agentes y los LLMs.

    Exploramos cómo los equipos de desarrollo y DevOps pueden aprovechar Docker Desktop no solo para ambientes de desarrollo tradicionales, sino también para nuevos flujos de trabajo relacionados con inteligencia artificial.

    En particular, analizamos dos funcionalidades interesantes que pueden integrarse fácilmente en el entorno local: Docker Model Runner para ejecutar modelos LLM locales y las herramientas de Docker para correr MCP Servers, permitiendo conectar aplicaciones de IA con servicios externos de forma más segura y estandarizada.

    Si ya utilizas contenedores en tu flujo de desarrollo, estas capacidades podrían ayudarte a simplificar la integración de IA en tu stack sin añadir más herramientas externas.

    🔍 En este episodio aprenderás:

    • Por qué Docker dejó de ser un “buzzword” pero sigue siendo clave en DevOps
    • Cómo Docker Desktop sigue facilitando ambientes de desarrollo locales con contenedores
    • Qué es Docker Model Runner y cómo permite correr LLMs locales
    • Cómo interactuar con modelos locales usando APIs tipo OpenAI u Ollama
    • Qué es Model Context Protocol (MCP) y por qué es importante para aplicaciones de IA
    • Cómo Docker Desktop facilita ejecutar MCP Servers de forma aislada y segura
    • Cuándo tiene sentido usar Docker Desktop en flujos de trabajo con inteligencia artificial

    📑 Capítulos:

    (00:00) Introducción: IA, buzzwords y el rol actual de Docker
    (01:45) ¿Por qué Docker dejó de ser un buzzword?
    (04:20) Docker Desktop en los flujos de desarrollo modernos
    (07:30) Ambientes de desarrollo locales con contenedores
    (10:10) Kubernetes local dentro de Docker Desktop
    (13:00) Cómo la IA está cambiando el trabajo de desarrollo y operaciones
    (16:20) Primer enfoque: correr modelos LLM locales
    (19:10) Docker Model Runner: cómo funciona
    (22:40) APIs compatibles con OpenAI y Ollama
    (25:00) Segundo enfoque: qué es MCP (Model Context Protocol)
    (27:20) Problemas comunes al ejecutar MCP servers
    (29:40) Docker MCP Toolkit y MCP Catalog
    (31:50) Docker MCP Gateway y orquestación de MCP servers
    (33:10) Reflexión final: cuándo considerar Docker Desktop en la era de la IA

    Show more Show less
    35 mins
No reviews yet