Agentes para desarrollar software:
https://x.com/unclebobmartin/status/2045477573535142212
Orquestador de agentes
https://github.com/unclebob/swarm-forge
Links
Compartir con la comunidad todo aquello que pueda resultar útil para las personas interesadas en software development, software craftsmanship, agile, leadership, etc
Agentes para desarrollar software:
https://x.com/unclebobmartin/status/2045477573535142212
Orquestador de agentes
https://github.com/unclebob/swarm-forge
Links
En 2017, el CEO de GitHub dijo que la programación iba a desaparecer. Tenía razón en algo. Se equivocó en lo que importa.
"El futuro de la programación es no programar en absoluto." — Chris Wanstrath, ex-CEO de GitHub, 2017
Business Insider lo publicó en portada. El CEO de GitHub diciendo que la automatización acabaría con la programación tradicional.
En 2017 no existía ChatGPT. No existía Copilot. No existía nada de lo que hoy usamos a diario.
Y aun así, ya lo estaba diciendo.
¿Tenía razón?
Sí y no.
La forma de programar cambió. Eso es un hecho.
Hoy cualquier persona puede abrir una interfaz, escribir un prompt, y obtener un componente funcional en segundos. Código que hace cinco años habría requerido horas de trabajo aparece en la pantalla antes de que termines el café.
Sobre esto no hay debate. La barrera para generar código se desplomó.
Programar nunca fue solo escribir código.
Programar es pensar en sistemas. Es decidir qué construir y cómo. Es diseñar soluciones que funcionen hoy y que se puedan modificar mañana sin que todo explote. Es entender por qué una arquitectura aguanta la carga y otra no. Es saber cuándo una abstracción ayuda y cuándo está creando un problema que alguien va a sufrir en seis meses.
Eso no lo hace un prompt.
Un modelo de lenguaje genera código. No razona sobre el sistema. No conoce las restricciones reales del negocio. No tiene que mantener lo que produce ni responder cuando algo falla en producción a las dos de la mañana.
El criterio de ingeniería no se automatiza. Se aplica sobre la automatización.
El programador que sabe diseñar software y además sabe usar herramientas de IA como un profesional tiene una ventaja que hoy todavía no está completamente valorada. Pero lo va a estar.
Y acá importa ser preciso, porque hay mucha confusión sobre qué significa "usar IA como profesional".
No hablo de pedirle a ChatGPT que te escriba un componente. Eso ya lo hace cualquiera. Eso es el piso, no el techo.
Hablo de otra cosa. De montar agentes que siguen tus reglas de arquitectura. De encadenar subagentes que manejan partes específicas de un flujo. De definir skills reutilizables y conectar herramientas externas vía MCP. De hacer que la IA trabaje para vos de forma estructurada, con criterio, con guardarraíles de ingeniería reales.
La diferencia entre generar código con un prompt y montar un sistema de IA que hace ingeniería de software es la misma diferencia que hay entre ejecutar un script y diseñar una arquitectura.
Podés seguir haciendo vibe coding. Generar código, pegarlo, rezar para que funcione, repetir. Muchos lo hacen. El resultado es velocidad aparente y deuda técnica real.
O podés aprender a montar sistemas de IA que apliquen ingeniería de software de verdad. Que sigan principios de diseño. Que generen tests. Que respeten las convenciones del proyecto. Que escalen.
Wanstrath tenía razón en que escribir código manualmente iba a dejar de ser el centro del trabajo. Se equivocó en pensar que eso hacía irrelevante al programador. Lo que hace irrelevante al programador es no entender que su rol cambió.
El rol ahora es dirigir sistemas que producen software. Y para dirigirlos bien, necesitás saber exactamente qué es buen software.
El que no sabe eso, con o sin IA, sigue construyendo lo mismo de siempre.
Solo más rápido.
Todo lo que aprendiste sigue valiendo. El problema es que ya no es suficiente.
Años aplicando SOLID. Code reviews serias. Tests, refactoring, arquitectura limpia. Has pagado el precio que hay que pagar para escribir software de verdad.
Y ahora hay alguien con menos experiencia que está entregando más rápido que tú.
Antes de que eso te moleste, lee: no es porque sea mejor programador. Probablemente ni sabe por qué funciona la mitad de lo que escribe. Pero aprendió algo que tú todavía no has incorporado.
Aprendió a dirigir agentes.
Esto no es un ataque a los fundamentos. El código sostenible, los principios de diseño, la capacidad de detectar un code smell antes de que se convierta en un desastre — todo eso sigue importando. Mucho.
Pero dejó de ser lo que te diferencia.
Antes, ser senior era saber escribir buen código. Conocer los patrones. Hacer buenas abstracciones. Eso era el nivel al que llegabas después de años de trabajo real.
Ahora eso es el piso. El punto de partida. Lo mínimo esperado.
Lo que está cambiando la ecuación no es el conocimiento. Es quién está aplicando ese conocimiento, y a qué velocidad.
Hay developers que llevan meses trabajando con agentes. No como juguete. Como parte real de su flujo de trabajo.
Le dan al agente sus reglas de arquitectura. Sus convenciones de naming. Sus criterios de testing. Las mismas reglas que tú aplicas en cada PR. Y el agente las ejecuta de forma consistente, en cada archivo, sin que nadie tenga que repetirlas.
El resultado: resuelven los mismos problemas que tú. En menos tiempo.
No porque tengan mejor criterio. Porque aprendieron a convertir su criterio en instrucciones que escalan.
No va a ser la IA la que te desplace. Va a ser un developer que sabe lo mismo que tú pero que lleva meses haciendo ingeniería con agentes mientras tú segues trabajando igual que hace un año.
Y la distancia se alarga cada semana.
Acá está la parte que la mayoría no está viendo.
Los agentes sin criterio son peligrosos. Un developer que no distingue buen diseño de malo, que no entiende por qué una abstracción existe, que no sabe cuándo un test agrega valor y cuándo solo agrega ruido — ese developer con agentes genera deuda técnica a velocidad industrial.
El criterio que tardaste años en construir es exactamente lo que convierte un agente en una herramienta de ingeniería seria. Sin ese criterio, el agente es solo ruido rápido.
Las convenciones que aplicas en cada code review. Los límites de responsabilidad que defiendes en cada diseño. Los patrones que exiges antes de aprobar un PR. Todo eso, que hoy vive en tu cabeza, puede convertirse en reglas que un agente sigue de forma consistente.
Solo tienes que dar ese paso.
¿Cuánto de lo que sabes está documentado de una forma que un agente pueda seguir? ¿Cuánto sigue atrapado en tu cabeza, disponible solo cuando tú estás en la conversación?
Eso es lo que hay que cambiar. No el conocimiento. La forma en que ese conocimiento se aplica.
El developer que va a seguir siendo relevante en los próximos años no es el que abandona lo que sabe. Es el que aprende a multiplicarlo.
El que no lo haga se va a quedar atrás. No por falta de talento. Por falta de movimiento.
Y eso sí es una decisión.
El código limpio que nadie puede verificar es solo código que todavía no ha roto nada.
El buen código no es opcional. Eso ya lo sabes. Pero hay algo que mucha gente se deja en el camino.
¿Cómo sabes que tu código "limpio" sigue funcionando después de refactorizarlo?
Imagina esto: es un viernes por la tarde. Te sientas a refactorizar un servicio que lleva meses pidiendo a gritos una limpieza. Renombras métodos, los extraes a un nuevo módulo, introduces abstracciones que antes no existían. Cuando terminas, el código brilla. Es una obra de arte.
Y entonces viene la pregunta incómoda.
¿Cómo sabes que no has roto nada? ¿Que el flujo de pedidos sigue funcionando de extremo a extremo? ¿Que la integración de pagos no se ha roto silenciosamente? ¿Que un cliente todavía puede completar una compra?
No lo sabes. No puedes saberlo, a menos que tengas tests que verifiquen el comportamiento del sistema, no la implementación.
Los tests unitarios son rápidos. Te dan feedback inmediato y hacen que refactorizar se sienta seguro. Son el pan de cada día de cualquier desarrollador disciplinado.
Pero incluso los mejores tests unitarios tienen un punto ciego enorme.
Verifican piezas en aislamiento. Mockean la base de datos. Stubean la API externa. Se saltan la serialización. Cuando todos los tests pasan, sabes que la lógica de tu unidad funciona correctamente. Pero no sabes si la lógica del sistema funciona.
Los problemas aparecen en los límites. La consulta que devuelve datos con una forma diferente a la que asumías. La capa HTTP que silenciosamente se come un campo. La integración que funcionaba aislada pero se rompe cuando se encuentra con la realidad.
Los tests unitarios no pueden detectar estos problemas, no porque estén mal escritos, sino porque no están diseñados para eso. Nadie les pidió que lo hicieran.
Los tests de aceptación ejercitan el sistema de extremo a extremo, a través de los mismos límites que tocan tus usuarios reales.
La diferencia con los unitarios no es solo técnica, es conceptual:
Uno verifica una pieza. El otro verifica una historia. Uno te dice que la función hace lo que se supone. El otro te dice que el usuario puede hacer lo que necesita.
Ambos son necesarios. Son complementarios, no competidores. Pero el segundo es el que te deja dormir tranquilo después de un viernes de refactoring.
Esta es la pregunta real. La que tienen la mayoría de desarrolladores .NET que trabajan en proyectos con años de historia encima.
Aquí está la trampa en la que caen muchos: intentan escribir tests unitarios primero en código legacy. Es una batalla perdida. El código legacy no fue diseñado para ser testeado en aislamiento. Tiene dependencias estáticas, clases enormes, métodos que hacen diez cosas a la vez.
La estrategia más efectiva es la contraria: empieza por los tests de aceptación.
1. Escribe un test de aceptación que describa un flujo crítico.
2. Hazlo pasar tal cual está el código (sin tocar nada).
3. Ahora tienes una red de seguridad.
4. Refactoriza con confianza.
5. Añade tests unitarios a medida que extraes lógica.
Los tests de aceptación sobre código legacy son feos, lentos, a veces frágiles. No importa. Su trabajo no es ser elegantes. Su trabajo es atrapar regresiones mientras tú limpias el desastre heredado.
Primero pon la red. Luego haz el salto.
Refactorizar código sin cobertura de tests de comportamiento no es "limpiar". Es reorganizar la deuda técnica sin garantías. Puede quedar bonito en el repositorio y estar completamente roto en producción.
El código limpio sin tests es código que todavía no ha fallado en el peor momento. El código con una buena cobertura de aceptación es código que puedes cambiar sin miedo.
Y en este trabajo, cambiar código sin miedo no es un lujo. Es la habilidad que te hace relevante.
Cada vez se escribe menos código a mano. La pregunta no es si la IA va a cambiar tu trabajo — ya lo está haciendo. La pregunta es: ¿qué valor vas a aportar tú?
Usar GitHub Copilot o ChatGPT para escribir código es fácil. Cualquiera puede hacerlo hoy. El problema es que la IA se equivoca, y se equivoca con mucha confianza. Genera código que compila, que se ve correcto, pero que tiene bugs sutiles, vulnerabilidades de seguridad o que simplemente no escala.
Tu valor como developer ya no está en escribir la línea de código — está en saber si esa línea debería existir, y si está bien escrita. Eso requiere criterio. Y el criterio solo viene de entender profundamente lo que estás construyendo.
Si no tienes el conocimiento para detectar cuando la IA se equivoca, entonces básicamente eres un copypaste humano. Y eso sí lo puede hacer la IA sola.
→ La IA es un amplificador: amplifica a los buenos developers y expone a los que no saben lo que hacen.