Inicio Servicios Proceso Proyectos Open Source Blog en Reservar llamada
Open Source Laravel Case Study

Ollama Laravel: de paquete de código abierto a 301K descargas

Cómo la creación de un paquete Laravel de código abierto para IA local generó confianza, comunidad y un flujo de consultoría. Lecciones de dos años.

marzo 2026 2 min
Ollama Laravel: de paquete de código abierto a 301K descargas

En noviembre de 2023 publiqué un paquete de Laravel en GitHub. Hacía una sola cosa: conectar aplicaciones Laravel con Ollama, la herramienta que te permite ejecutar modelos de IA localmente. Sin APIs externas, sin costes de nube, sin que los datos salgan de tu máquina.

Hoy, ese paquete tiene más de 301,000 descargas, 612 estrellas en GitHub, 144 colaboradores y 19 versiones publicadas. Pero la parte más interesante no son los números, sino lo que ocurrió gracias a ellos.

El Desafío

Cuando empecé, el panorama de la IA en Laravel estaba casi vacío. Si querías integrar modelos de lenguaje, tu única opción real era llamar a APIs externas. Ollama acababa de lanzarse como un proyecto de código abierto que permitía descargar y ejecutar modelos localmente. Pero la API era HTTP puro, la documentación estaba orientada a usuarios de Python y no había nada para el ecosistema PHP/Laravel.

Vi el hueco. Miles de desarrolladores de Laravel estaban interesados en la IA pero no tenían ninguna herramienta que hablara su idioma: Facades, service providers, paquetes de Composer.

Por qué es difícil

La primera versión tardó un fin de semana en construirse. Pero el verdadero desafío comenzó el día después de publicarla.

La API de Ollama evolucionó rápido. Nuevos endpoints para chat, visión, embeddings, function calling, modelos de pensamiento/razonamiento. Cada actualización de Ollama significaba que el paquete necesitaba ponerse al día. Al mismo tiempo, el propio Laravel lanzó las versiones 11 y luego la 12, cada una con cambios que rompían la compatibilidad.

Luego está la dimensión de la comunidad. 144 colaboradores significan 144 casos de uso, estilos de programación y expectativas diferentes. ¿La parte más difícil? Decir que no. Mantener un paquete enfocado cuando hay cientos de solicitudes de funcionalidades válidas tirando de él en diferentes direcciones.

Tres decisiones que definieron el éxito del paquete

Hacer que se sienta nativo de Laravel. No un cliente HTTP genérico de PHP, sino un paquete que utiliza Facades, publica archivos de configuración con Artisan e integra a través de service providers.

Aliarse con Spatie. Usar su spatie/laravel-package-tools como base del paquete le dio credibilidad inmediata y una estructura probada en batalla.

Desarrollo orientado a la documentación. Cada funcionalidad se lanzó con un ejemplo de código en el README. El ejemplo se escribía antes de la implementación. Esto significaba que la API siempre se diseñaba pensando en la experiencia del desarrollador.

Resultados

Más de 301K descargas, 612 estrellas en GitHub, 144 colaboradores, 19 versiones.

El paquete creció orgánicamente. Sin promoción pagada, sin lanzamiento en Product Hunt. El crecimiento vino de desarrolladores que lo encontraban, lo probaban y lo recomendaban.

Pero el resultado más valioso son las conversaciones que empiezan con "Vi tu paquete de Ollama" y terminan con "Necesitamos ayuda para construir algo con IA para nuestra empresa". El paquete es una prueba de competencia que ninguna página de portafolio puede igualar.

Qué haríamos de forma diferente

Invertiría más en pruebas automatizadas desde el primer día. Crearía una matriz de compatibilidad de versiones antes. Construiría un sitio de documentación dedicado más pronto. Y rastrearía la conexión del embudo entre las descargas del paquete y las consultas de consultoría desde el principio.

Conclusión

Si eres un desarrollador construyendo un negocio de consultoría o freelance, publicar código de fuente abierta es la señal más fuerte que puedes enviar. Es código, no afirmaciones. Son métricas de adopción, no testimonios. Construyes confianza commit a commit.

Toni Soriano
Toni Soriano
Principal AI Engineer en Cloudstudio. +18 años construyendo sistemas en producción. Creador de Ollama Laravel (300K+ descargas).
LinkedIn →

¿Tienes un reto similar?

Cada proyecto empieza con una llamada de descubrimiento. Hablemos de tu caso de uso.

Recurso gratuito

Obtén el checklist de implementación de IA

10 preguntas que todo equipo debería responder antes de construir sistemas de IA. Evita los errores más comunes que vemos en proyectos de producción.

¡Revisa tu bandeja de entrada!

Te hemos enviado el checklist de implementación de IA.

Sin spam. Cancela cuando quieras.