En noviembre de 2023 publiqué un paquete de Laravel en GitHub. Hacía una sola cosa: conectar aplicaciones Laravel con Ollama, la herramienta que te permite ejecutar modelos de IA localmente. Sin APIs externas, sin costes de nube, sin que los datos salgan de tu máquina.
Hoy, ese paquete tiene más de 301,000 descargas, 612 estrellas en GitHub, 144 colaboradores y 19 versiones publicadas. Pero la parte más interesante no son los números, sino lo que ocurrió gracias a ellos.
El Desafío
Cuando empecé, el panorama de la IA en Laravel estaba casi vacío. Si querías integrar modelos de lenguaje, tu única opción real era llamar a APIs externas. Ollama acababa de lanzarse como un proyecto de código abierto que permitía descargar y ejecutar modelos localmente. Pero la API era HTTP puro, la documentación estaba orientada a usuarios de Python y no había nada para el ecosistema PHP/Laravel.
Vi el hueco. Miles de desarrolladores de Laravel estaban interesados en la IA pero no tenían ninguna herramienta que hablara su idioma: Facades, service providers, paquetes de Composer.
Por qué es difícil
La primera versión tardó un fin de semana en construirse. Pero el verdadero desafío comenzó el día después de publicarla.
La API de Ollama evolucionó rápido. Nuevos endpoints para chat, visión, embeddings, function calling, modelos de pensamiento/razonamiento. Cada actualización de Ollama significaba que el paquete necesitaba ponerse al día. Al mismo tiempo, el propio Laravel lanzó las versiones 11 y luego la 12, cada una con cambios que rompían la compatibilidad.
Luego está la dimensión de la comunidad. 144 colaboradores significan 144 casos de uso, estilos de programación y expectativas diferentes. ¿La parte más difícil? Decir que no. Mantener un paquete enfocado cuando hay cientos de solicitudes de funcionalidades válidas tirando de él en diferentes direcciones.
Tres decisiones que definieron el éxito del paquete
Hacer que se sienta nativo de Laravel. No un cliente HTTP genérico de PHP, sino un paquete que utiliza Facades, publica archivos de configuración con Artisan e integra a través de service providers.
Aliarse con Spatie. Usar su spatie/laravel-package-tools como base del paquete le dio credibilidad inmediata y una estructura probada en batalla.
Desarrollo orientado a la documentación. Cada funcionalidad se lanzó con un ejemplo de código en el README. El ejemplo se escribía antes de la implementación. Esto significaba que la API siempre se diseñaba pensando en la experiencia del desarrollador.
Resultados
Más de 301K descargas, 612 estrellas en GitHub, 144 colaboradores, 19 versiones.
El paquete creció orgánicamente. Sin promoción pagada, sin lanzamiento en Product Hunt. El crecimiento vino de desarrolladores que lo encontraban, lo probaban y lo recomendaban.
Pero el resultado más valioso son las conversaciones que empiezan con "Vi tu paquete de Ollama" y terminan con "Necesitamos ayuda para construir algo con IA para nuestra empresa". El paquete es una prueba de competencia que ninguna página de portafolio puede igualar.
Qué haríamos de forma diferente
Invertiría más en pruebas automatizadas desde el primer día. Crearía una matriz de compatibilidad de versiones antes. Construiría un sitio de documentación dedicado más pronto. Y rastrearía la conexión del embudo entre las descargas del paquete y las consultas de consultoría desde el principio.
Conclusión
Si eres un desarrollador construyendo un negocio de consultoría o freelance, publicar código de fuente abierta es la señal más fuerte que puedes enviar. Es código, no afirmaciones. Son métricas de adopción, no testimonios. Construyes confianza commit a commit.