Vibe coding: ¿ser o no ser programador en la era de la IA?
Partiré de una pregunta sin respuesta: “¿Crees que utilizar un ordenador para calcular la estructura de un edificio desvirtúa la esencia de ser ingeniero? ¿O piensas que un buen ingeniero debe calcular una estructura con papel y lápiz o, como mucho, con una regla de cálculo?”.
Hoy en día, basta con teclear “hazme una web que venda camisetas con IA” para que un asistente genere código funcional en segundos. Bienvenidos o “malvenidos” al vibe coding: programar no desde la lógica, sino desde la intuición; no con arquitectura, sino con vibra. El desarrollador ya no escribe ni tiene necesidad de saber código: lo sugiere, lo corrige, lo acepta. La máquina lo construye y el desarrollador en base a cómo resuelve la cuestión propuesta sigue o propone, sugiere cambios y en un flujo de interacciones hombre-máquina obtiene el resultado buscado y -a veces- con sorpresa mejorado.
Pero ¿qué perdemos cuando delegamos el pensamiento computacional a un modelo entrenado con millones de repositorios de GitHub? ¿Seguimos siendo ingenieros… o nos convertimos en curadores de resultados?
Frente al vibe coding, emerge una contrametodología (¿surge?): el código deliberado. Aquí, cada línea se escribe con intención. Cada algoritmo se comprende antes de implementarse. La eficiencia no se mide en velocidad de entrega, sino en claridad, mantenibilidad y ética. No basta con que “funcione”. Debe ser comprensible, auditable, responsable.
Frente a esta situación el vibe coder responde: “¿Por qué reinventar la rueda si la IA ya la ha inventado un millón de veces?”.
El programador deliberado, el tradicional, replica:
“Porque si no entiendo la rueda, no sabré cuándo puede romperse… ni quién sufre cuando lo hace… ni cómo arreglarla cuando falle. La IA puede ensamblar mil ruedas en un segundo, pero si no entiendo su geometría, su fricción, su relación con el eje y el terreno, me quedaré paralizado ante la primera grieta. El vibe coder confía en que siempre habrá otra rueda lista, generada al instante. Pero la realidad no funciona así: los sistemas críticos —los que gestionan hospitales, redes eléctricas, justicia o transporte— no admiten errores que se resuelvan con un ‘Ctrl+Z’. Lo verdaderamente peligroso no es usar la IA, sino creer que ya no necesitamos entender lo que antes nos costó décadas dominar. Porque cuando la caja negra deja de funcionar… solo quien conoce el mecanismo interior puede salvar lo que hay dentro.”
El peligro no está en la herramienta, sino en la ilusión de que ya no necesitamos entenderla. La IA puede escribir un bucle “for”, pero no puede decidir si ese bucle perpetúa un sesgo algorítmico, viola la privacidad o automatiza una injusticia.
Quizá el futuro no sea elegir entre vibe o deliberación, sino integrar ambos: usar la IA para escalar, sí, pero con la disciplina para cuestionar cada salida, cada decisión, cada suposición oculta en el código generado.
Pero entonces… ¿quién corrige al corrector? ¿Quién interroga a la IA que interroga por nosotros?
Quizá la respuesta no esté en el código, sino en la formación. En volver a enseñar por qué antes que cómo.
Porque una sociedad que ya no entiende sus propias máquinas está condenada a obedecerlas.
¿Ser programador… o no serlo?
La duda, hoy, es el primer acto de responsabilidad.
Tomás Cascante



