Roberto Carrancio

Mi nombre es Roberto Carrancio y soy un DBA de SQL server con más de 10 años de experiencia en el sector. Soy el creador del blog soydba.es donde intento publicar varios artículos a la semana (de lunes a viernes que los fines de semana me gusta estar con mi gente y disfrutar de mi moto) Espero que disfrutes leyendo este blog tanto como yo disfruto escribiendo y que te sea de utilidad. Si tienes alguna sugerencia, pregunta o comentario, puedes dejarlo al final de cada entrada o enviarme un correo electrónico. Estaré encantado de leerte y responderte. ¡Gracias por tu visita! Mi principal interés es compartir mi conocimiento sobre bases de datos con todo el que quiera aprenderlo. Me parece un mundo tan apasionante como desconocido. Fuera de lo profesional me encanta la cocina, la moto y disfrutar de tomar una cervecita con amigos.
Mi nombre es Roberto Carrancio y soy un DBA de SQL server con más de 10 años de experiencia en el sector. Soy el creador del blog soydba.es donde intento publicar varios artículos a la semana (de lunes a viernes que los fines de semana me gusta estar con mi gente y disfrutar de mi moto) Espero que disfrutes leyendo este blog tanto como yo disfruto escribiendo y que te sea de utilidad. Si tienes alguna sugerencia, pregunta o comentario, puedes dejarlo al final de cada entrada o enviarme un correo electrónico. Estaré encantado de leerte y responderte. ¡Gracias por tu visita! Mi principal interés es compartir mi conocimiento sobre bases de datos con todo el que quiera aprenderlo. Me parece un mundo tan apasionante como desconocido. Fuera de lo profesional me encanta la cocina, la moto y disfrutar de tomar una cervecita con amigos.

¿DBA todoterreno o especialista? El dilema de las ofertas de trabajo

Cada vez que veo una oferta de trabajo que pide un DBA todoterreno con experiencia en SQL Server, Oracle, PostgreSQL, MySQL, MongoDB, Sybase, Cassandra y, de paso, conocimientos en DevOps, Kubernetes, Power BI, scripting en Python y algo de tuning en SAP HANA, me pregunto si están contratando a un administrador de bases de datos o a un grupo de consultores disfrazado de persona.

Estas ofertas no son una excepción puntual. Son ya una categoría en sí mismas. Y no es que me asuste el conocimiento transversal, al contrario: todos empezamos tocando varios palos. El problema es otro. El problema es que esta tendencia a buscar perfiles “todoterreno” está erosionando algo esencial: la profundidad técnica.

Generalistas en soporte, especialistas en producción

Tener una visión amplia de varios motores tiene su valor. Es útil en entornos donde la diversidad tecnológica es real, o en roles de soporte de primer nivel donde lo importante es reconocer patrones, detectar errores frecuentes y saber cuándo escalar. En ese contexto, un DBA generalista puede cumplir perfectamente su función. No es el que resuelve el problema más complejo, pero sí el que lo identifica antes de que se agrave.

Ahora bien, cuando pasamos a producción real, de esa que duele cuando falla, la historia cambia. En entornos donde una caída significa pérdida de negocio o una consulta mal diseñada cuesta cientos de euros en recursos, lo que marca la diferencia no es haber leído la documentación de tres motores distintos. Es conocer a fondo cómo piensa uno de ellos. Qué decisiones toma el optimizador, cómo se gestionan los bloqueos internos, qué implica realmente un ROLLBACK en una transacción de 200 GB, o cómo se comporta el almacenamiento ante ciertos patrones de acceso.

Es ahí donde entra el especialista. Ese DBA que no solo sabe qué está pasando, sino por qué. Que no necesita revisar los logs durante una hora porque ya ha visto ese fallo antes. Que no tiene que adivinar cómo reacciona el motor ante un plan de ejecución aberrante porque conoce su funcionamiento interno al detalle.

Y eso, por mucho que lo disfracemos con etiquetas como “perfil híbrido” o “dev-friendly”, no se consigue tocando siete tecnologías a la vez. Se consigue con foco, con años, con sangre (figurada), sudor (literal) y muchas noches leyendo documentación técnica mientras medio mundo duerme.

La falsa promesa del todoterreno que sabe de todo

Lo curioso es que esta demanda de omnisciencia técnica no viene solo de recursos humanos. Muchas veces nace del propio sector, de una cultura en la que parecer que sabes de todo vale más que saber realmente de algo. Como si el valor de un profesional se midiera por la longitud de su perfil en LinkedIn y no por la calidad de las decisiones que toma cuando todo se viene abajo.

El problema no es querer aprender de todo. Eso está bien. Lo peligroso es querer ser experto en todo. Porque eso es sencillamente imposible. Y quien lo intenta, acaba acumulando conocimientos superficiales que no resisten la presión de producción. Sabe ejecutar, pero no explicar. Identifica errores, pero no los entiende. Y eso, en el mejor de los casos, es ineficaz. En el peor, es directamente peligroso.

Yo no necesito un DBA que sepa hacer un poco de todo si cuando de verdad importa no distingue entre un latch y un wait. Prefiero al que lleva decenas de miles de horas trabajando con SQL Server, que ha visto servidores arder (a veces de forma figurada y otras casi literalmente) y sabe que el plan de mantenimiento de índices no es una tarea semanal sino una decisión estratégica.

Por desgracia, el mercado aún no valora como debería esa profundidad. Sigue prefiriendo perfiles con veinte tecnologías mencionadas y cero responsabilidades asumidas. Pero los equipos técnicos, los de verdad, los que dan soporte a entornos críticos, sí saben lo que vale un especialista. Y cuando hay que elegir entre uno que sabe un poco de todo y otro que domina lo que importa, no lo dudan.

Una nota para RRHH y responsables técnicos: el perfil ideal no existe

Si trabajas en selección o lideras un equipo técnico, este mensaje también va para ti. Es comprensible querer encontrar al “candidato ideal”, pero cuidado con convertirlo en una fantasía técnica. Las ofertas que piden un DBA que domine cinco motores distintos, tres entornos cloud, monitorización avanzada, DevOps y BI… no están buscando una persona. Están buscando una quimera.

La versatilidad es útil, claro. Pero en producción real, lo que necesitamos es profundidad. Y la profundidad no nace de tocar muchas cosas por encima, sino de meterse hasta el cuello en una tecnología concreta, convivir con ella en sus buenas y malas épocas, y saber exprimirla cuando toca.

Si pedís a alguien que haga todo, no hará nada bien. Y lo peor: los que realmente saben no aplicarán. Porque el que lleva años con SQL Server o con Oracle y tiene criterio técnico para tomar decisiones críticas no va a perder el tiempo en una oferta que parece escrita por un generador automático de palabras clave.

Cuando diseñéis el perfil, pensad en lo que de verdad necesitáis. ¿Hace falta experiencia real en alta disponibilidad en SQL Server? Entonces no pongáis “conocimientos en MySQL valorables” como si fuera un bonus simpático. Si el core del trabajo es PostgreSQL, no tiene sentido exigir 5 años con Mongo. Sed específicos. Y sobre todo, sed realistas.

NO TE PIERDAS NADA

Sé el primero en conocer nuestras novedades

¡No hacemos spam! Lee nuestra política de privacidad para obtener más información.

El valor está en la profundidad, no en la dispersión

Hay una diferencia importante entre aprender y pretender. Aprender de varios motores, entender qué los distingue, explorar sus filosofías y herramientas, es una fase lógica y necesaria en el camino de cualquier DBA. Pero en algún punto hay que tomar decisiones. Elegir un stack, profundizar, construir criterio técnico.

Ese paso, que para algunos parece una renuncia, en realidad es lo que convierte a un profesional en alguien verdaderamente valioso. No porque sea incapaz de aprender otra cosa, sino porque ha decidido invertir su tiempo donde realmente puede marcar la diferencia.

Y esto no es una apología del inmovilismo. No se trata de quedarse atrapado en una tecnología por comodidad. Se trata de entender que el dominio técnico requiere tiempo, foco y profundidad. No se puede ser referente en cinco motores distintos a la vez. Y si alguien lo afirma… bueno, probablemente también cree que los NOLOCK solucionan bloqueos.

Conclusión

No hay nada malo en explorar varios caminos. Pero si queremos ser profesionales sólidos, de esos que se buscan cuando algo se rompe de verdad, en algún momento hay que elegir dónde cavar más hondo.

Un DBA indispensable no es el que sabe instalar todo lo que existe, sino el que entiende su entorno como nadie más. Ese que no improvisa, sino que anticipa. Que no copia soluciones, sino que las construye. Y eso no lo da la amplitud. Lo da la profundidad.

Así que, si estás empezando, aprende de todo lo que puedas. Pero no te quedes ahí. Y si ya llevas años, quizá va siendo hora de preguntarte: ¿quieres ser uno más en todas partes o el que marca la diferencia donde realmente importa?

Si tenéis alguna duda o sugerencia, podéis dejarla en Twitter, por mail o dejarnos un mensaje en los comentarios. Y recuerda que también tenemos un grupo de LinkedIn y un canal de YouTube a los que te puede unir. ¡Hasta la próxima!

Publicado por Roberto Carrancio en Cloud, SQL Server, 0 comentarios

¿Está SQL Server realmente muerto como dicen algunos?

Cada pocos años alguien anuncia la muerte de SQL Server con la misma convicción con la que se predice el fin del mundo. Y, como suele pasar, seguimos aquí, con instancias vivas, bases de datos respirando y DBAs quejándose de los mismos problemas de siempre… y de unos nuevos. El auge de las bases de datos analíticas, la popularidad de entornos cloud como Snowflake o Microsoft Fabric, el ruido de las soluciones NoSQL y la omnipresencia de alternativas relacionales como MySQL o PostgreSQL han creado un escenario donde cualquiera podría pensar que el reinado de SQL Server se tambalea. Sin embargo, las novedades anunciadas para SQL Server 2025 apuntan a todo lo contrario: el producto sigue mutando para seguir siendo relevante, incluso si eso implica acercarse peligrosamente al mundo de la ciencia de datos. Y todo esto sin soltar la bandera que le hizo grande: el motor transaccional.

El entorno actual: cada uno en su liga

No es ningún secreto que las bases de datos analíticas están en su momento. Snowflake, BigQuery o Azure Synapse se han convertido en la herramienta preferida para quienes necesitan triturar terabytes de datos con más rapidez que un analista quemando su último café. Microsoft, por su parte, ha apostado fuerte con Fabric, un entorno que quiere ser la navaja suiza del dato: integración, ingeniería, análisis, IA… y todo en la nube, sin que te preocupes por el hardware (o eso dicen, hasta que llega la factura).

En paralelo, el ecosistema NoSQL sigue vivo, aunque su hype inicial ya no llena auditorios. MongoDB, Cassandra y compañía encontraron su nicho: estructuras flexibles, escalabilidad horizontal y consultas rápidas para ciertos patrones de uso. Pero conviene recordar que no es la primera vez que la industria promete que “lo nuevo” es la panacea. Antes fue XML en bases de datos, luego el OLAP embebido en todo, más tarde los lagos de datos que acabarían con los almacenes tradicionales… y ahí siguen las bases relacionales, 50 años después, ejecutando transacciones sin descanso. “Sin esquema” no significa “sin problemas”, y muchos que lo ignoraron pagaron el precio en migraciones forzadas y dolores de cabeza técnicos.

Mientras tanto, las bases de datos relacionales de código abierto siguen creciendo. PostgreSQL ha dejado de ser el “hermano alternativo” para convertirse en la opción principal de muchos nuevos proyectos. MySQL, que sobrevive gracias a su inercia y al ecosistema que lo rodea, sigue presente en millones de aplicaciones. Y hasta SQLite, ese motor minimalista, tiene más implantación de la que muchos sospechan, realmente es la base de datos relacional más utilizada, gracias en parte a que está embebido en aplicaciones móviles, navegadores y dispositivos IoT.

SQL Server en 2025: más que un SGBD relacional

Si echamos un vistazo a las novedades anunciadas para SQL Server 2025, el mensaje es claro: Microsoft no quiere que SQL Server se perciba solo como “la base de datos transaccional de siempre” y a la vez sí. La integración nativa con capacidades de ciencia de datos, el soporte extendido para Python y R, y la mejora de conectores con entornos como Fabric o Azure Machine Learning junto con las optimizaciones y mejoras del motor transaccional lo colocan como una plataforma híbrida, capaz de manejar tanto cargas OLTP como escenarios analíticos complejos.

Esto no es nuevo. Llevamos años viendo cómo SQL Server incluye características que antes parecían fuera de lugar: PolyBase para consultar datos externos, Graph Database para modelar relaciones no relacionales, o el soporte para formatos como Parquet y ORC a través de EXTERNAL TABLE. Pero en 2025 la apuesta es más decidida: acercar al científico de datos a la misma herramienta donde ya vive el dato empresarial. Porque mover datos sigue siendo caro y lento, aunque lo disfracemos de “pipelines”.

El motor OLTP: la base que no se toca

Entre tanta novedad es fácil olvidar lo obvio: SQL Server sigue siendo, ante todo, un motor OLTP sólido, fiable y maduro. Es el tipo de sistema que lleva años procesando millones de transacciones diarias sin que nadie lo ponga en duda. No será el más rápido del mundo en benchmarks aislados, pero tampoco se estrella en ninguna disciplina. Es ese jugador de equipo que no siempre marca goles espectaculares, pero nunca falla un pase. En entornos de misión crítica, eso vale más que el hype de la semana.

Aplicaciones financieras, sistemas de reservas, ERPs, CRMs… todos siguen necesitando un motor transaccional robusto, y SQL Server continúa cumpliendo sin dramas. Es cierto que el mercado está más fragmentado, pero en el terreno de las operaciones diarias, la consistencia y la integridad de datos no pasan de moda. Y ahí, el producto sigue ofreciendo un equilibrio que otros todavía no alcanzan.

Azure SQL: el motor en modo nube

En paralelo, Microsoft ha sabido llevar el ADN de SQL Server a la nube con Azure SQL Database y Azure SQL Managed Instance. Ambos ofrecen el mismo motor relacional, pero con las ventajas del cloud: elasticidad, alta disponibilidad automática y actualizaciones gestionadas. Azure SQL Database brilla para cargas modernas, escalables y distribuidas, mientras que Managed Instance resulta un salvavidas para migraciones lift-and-shift desde entornos on-premises, evitando reescribir medio catálogo de procedimientos almacenados.

Pero no todo es perfecto. La nube te da elasticidad, sí, pero también facturas que crecen más rápido que una tabla de log que no mantienes. Y ciertas configuraciones avanzadas siguen teniendo limitaciones frente al on-premises clásico. Aun así, en la pelea contra RDS for SQL Server, Cloud SQL o Aurora, Azure SQL compite muy decentemente, sobre todo cuando se integra con el resto del ecosistema Microsoft.

Competencia y convivencia: ahora con Oracle en la foto

Intencionadamente no había hablado de Oracle en este artículo aun. Esto es porque merecía su apartado dedicado. Ignorar a Oracle sería como hablar de fútbol sin mencionar a Messi o Cristiano. Oracle sigue siendo el otro gran titán del mundo relacional empresarial. Su estrategia ha ido en dos direcciones claras: reforzar su motor transaccional con mejoras de rendimiento y disponibilidad (la famosa RAC sigue siendo un argumento fuerte) y empujar con fuerza su base de datos autónoma en la nube, que promete optimización automática, parches sin downtime y escalabilidad elástica. En papel suena a ciencia ficción; en la realidad, sigue siendo un producto potente, aunque con el mismo talón de Aquiles que siempre: licenciamiento complejo y costes elevados.

Oracle mantiene una cuota sólida en sectores donde el riesgo no se negocia, como banca o telecomunicaciones, pero su imagen de “producto premium” lo aleja de entornos más ágiles o con presupuestos ajustados. En ese hueco es donde SQL Server ha sabido jugar sus cartas: más versátil en despliegues, más sencillo de administrar y con una curva de entrada menos intimidante.

La mayoría de grandes organizaciones que usan Oracle no prescinden de SQL Server; al contrario, los combinan. Oracle se queda con lo que justifica su precio (OLTP ultra crítico, escenarios de HA extrema) y SQL Server cubre aplicaciones empresariales, integraciones y cargas mixtas donde la flexibilidad pesa más que la pureza del rendimiento.

Oracle en entornos analíticos

En el frente analítico, Oracle ha optado por un enfoque doble. Por un lado, ha ido incorporando capacidades analíticas directamente en su motor transaccional, con funciones in-database, modelos estadísticos y procesamiento in-memory columnar para ejecutar cargas masivas sin mover los datos. Por otro, ha desarrollado Oracle Autonomous Data Warehouse, su servicio cloud gestionado para analítica, con escalabilidad automática y optimización asistida, pensado para competir con Snowflake o BigQuery. La diferencia es que Oracle sigue apostando por la especialización y la potencia de su propio ecosistema, mientras que Microsoft, con Fabric, ha preferido unificar integración, ingeniería y consumo en un solo marco. Solo el tiempo nos dirá quien ha optado por la solución correcta.

¿Un viraje o una extensión natural?

Visto lo que hay, los puristas dirán que SQL Server se está “contaminando” con funciones que no le corresponden. Los pragmáticos vemos otra cosa: un intento lógico de mantenerse en un mercado donde ya no basta con ser bueno en lo tuyo, sino que hay que ser útil en lo que otros necesitan. Si el científico de datos puede trabajar sobre el mismo entorno donde el ERP graba transacciones, se ahorran latencias, ETLs y errores humanos. Y si encima puedes exponer los resultados a Power BI o Fabric sin montar un festival de integraciones, más puntos a favor.

Esto no significa que SQL Server vaya a sustituir a Snowflake o a un motor columnar puro en un data warehouse masivo. Significa que cada vez será más común ver entornos mixtos, donde el dato crudo se procese en un sistema especializado y SQL Server actúe como nodo central para servir datos curados, combinados y gobernados.

El veredicto: no, no está muerto

Si algo nos enseña la historia de la tecnología es que las modas pasan y las bases sólidas permanecen. El hype del NoSQL, los lagos de datos milagrosos o las bases “autónomas” con inteligencia artificial han tenido su momento, y en muchos casos han acabado como piezas útiles pero de uso específico. Las bases de datos relacionales llevan medio siglo alimentando aplicaciones críticas y, lejos de extinguirse, siguen adaptándose.

SQL Server no se está apagando, se está transformando. Lo que vemos en 2025 es un motor más abierto, más conectado y con capacidades que hace diez años habrían hecho reír a cualquier DBA clásico. Pero, sobre todo, sigue siendo un motor transaccional de referencia, capaz de mover operaciones críticas día tras día sin pestañear. No será el mejor en todo, pero tampoco es malo en nada, y esa consistencia es la que mantiene viva su posición.

Y además tiene su versión en la nube bien armada, con Azure SQL plantando cara a las alternativas cloud sin complejos. El futuro del producto no es blanco o negro; es híbrido. Y, por ahora, SQL Server sigue siendo muy bueno en eso.

Si tenéis alguna duda o sugerencia, podéis dejarla en Twitter, por mail o dejarnos un mensaje en los comentarios. Y recuerda que también tenemos un grupo de LinkedIn y un canal de YouTube a los que te puede unir. ¡Hasta la próxima!

Publicado por Roberto Carrancio en Cloud, SQL Server, 0 comentarios

¿Por qué estudiar los fundamentos?

Llevo más de una década trabajando con bases de datos, y si hay algo que tengo cada vez más claro es esto: los fundamentos importan. Y no, no lo digo por nostalgia académica ni por espíritu conservador. Lo digo porque cada vez que veo un desastre en producción, casi siempre hay un denominador común: alguien ignoró los fundamentos, o directamente nunca los estudió. Así que vamos a hablar de eso. De lo básico. De lo que muchos consideran opcional y, sin embargo, marca la diferencia entre un profesional que sabe lo que hace y uno que improvisa con Stack Overflow abierto en una pestaña (o ChatGPT en estos tiempos).

Fundamentos: no se ven pero se notan

Entender cómo funciona una base de datos por dentro no es un lujo, es una necesidad. Y lo digo con conocimiento de causa. Me he encontrado proyectos donde la base de datos era una especie de Frankenstein montado a base de copiar código, sin ninguna lógica de integridad ni normalización. Y claro, luego vienen los lloros cuando hay incoherencias, cuellos de botella inexplicables o bloqueos que paralizan toda la aplicación.

Hablar de fundamentos es hablar de normalización, de integridad referencial, de transacciones, de concurrencia, de índices, de bloqueos, de cómo se almacenan los datos físicamente… Y eso no es teoría: es el pan de cada día si queremos que un sistema aguante sin incendiarse cada semana.

SQL Server no es sólo Management Studio

Cuando empecé con SQL Server, también me deslumbró el Management Studio. Tan cómodo, tan visual, tan lleno de botones que prometían hacer magia. Pero claro, esa magia dura lo que tarda en explotar el primer MERGE mal planteado o en aparecer un plan de ejecución de 20 niveles de nested loops.

Con el tiempo, y a base de errores, fui entendiendo que SQL Server es una bestia que hay que conocer. Hay que saber cómo el motor registra las operaciones en el Transaction Log, cómo se gestiona la memoria, qué hace el optimizador cuando decide (o no) usar un índice. Porque si no sabes eso, estás jugando a la ruleta rusa cada vez que ejecutas algo en producción. Y lo peor: ni siquiera lo sabes.

El boom del autodidacta exprés

He visto mucha gente entrar en este mundo con ganas, con energía, con actitud. Y eso me encanta. Pero también he visto cómo se les empuja a saltarse pasos. Tutoriales que enseñan a hacer SELECT * sin explicar por qué no deberías hacerlo jamás. Cursos que te arman para hacer un JOIN pero no te dicen qué es una clave primaria o cómo se gestionan los bloqueos.

Lo autodidacta tiene muchísimo valor. Yo mismo he aprendido así muchas cosas. Pero cuando todo se basa en “funciona, siguiente”, estamos criando técnicos que saben hacer, pero no entienden lo que están haciendo. Y eso es peligroso. Porque cuando algo deja de funcionar —y tarde o temprano, lo hará— no saben por qué. Y entonces empieza el festival de parches, workarounds, y soluciones que solo esconden el problema, como barrer la mierda debajo de la alfombra.

Esto no va de teoría vs. práctica

A veces me dicen: “Eso son cosas de la universidad, lo que importa es lo que funciona”. Y yo me río. Porque he estado a las tres de la mañana revisando por qué una transacción no terminaba, por qué un índice no se usaba o por qué un proceso estaba bloqueando a media base de datos. Y en esos momentos, lo que me salvó no fue ningún truco aprendido en Reddit, sino entender cómo funciona el motor por dentro.

Los fundamentos no te hacen más lento, te hacen más preciso. No es teoría inútil, es saber en qué estás apoyando todo lo demás. Es tener criterio para decidir, no ir al tuntún. Porque cuando entiendes lo básico, puedes aprender cualquier herramienta nueva con cabeza. Pero si solo sabes herramientas, dependes de ellas como quien necesita el GPS hasta para ir a comprar el pan.

Los fundamentos son las bases que no lo básico

Hay una confusión peligrosa que veo cada vez más: pensar que los fundamentos son lo básico. Como si hablar de ACID, de niveles de aislamiento o del funcionamiento del buffer pool fuera algo para juniors, y lo verdaderamente avanzado empezara cuando montas un clúster distribuido o haces tuning con hints arcanos. Pues no. Justo al revés.

Los fundamentos no son el punto de partida. Son el núcleo. Lo que no caduca. Lo que no depende de versiones ni modas. Cuando entiendes bien cómo trabaja el motor de SQL Server con páginas de 8KB, cómo se comporta una transacción en READ COMMITTED SNAPSHOT, o qué ocurre cuando haces un ROLLBACK a mitad de un trigger, no estás en lo básico. Estás en el corazón mismo de cómo funcionan las cosas.

He visto a gente presumir de saber hacer particionamiento por fecha y, al mismo tiempo, no tener claro qué diferencia hay entre un índice agrupado y uno no agrupado. ¿De qué sirve montar una solución distribuida si no controlas el coste de una tabla sin estadísticas? ¿Qué sentido tiene optimizar con Query Store si no sabes cómo interpreta el optimizador una subconsulta correlacionada?

Los fundamentos no se superan. Se profundizan. Cada vez que los reviso, aprendo algo nuevo. Y cada vez que los ignoro… lo pago. Con tiempo, con sustos, o con llamadas a deshora

Lo que pasa cuando se olvidan los fundamentos

He visto demasiadas veces los síntomas de no haber tocado nunca los fundamentos. Tablas sin claves primarias. Tipos de datos elegidos a boleo. Relaciones “gestionadas desde la aplicación”. Procedimientos imposibles de mantener, triggers infernales, y consultas que parecen escritas por un generador aleatorio de SQL.

Y todo eso se podría haber evitado si alguien hubiese dedicado un par de tardes a entender qué es una tercera forma normal o cómo funciona un índice no agrupado. No se trata de ser purista, se trata de no meter la pata en cosas que tienen solución desde hace décadas.

¿Y entonces qué?

Pues estudiemos. Con calma. Con profundidad. No para pasar exámenes ni certificar nada, sino para trabajar mejor. Volvamos a los libros viejos que explican qué es una base de datos relacional. Leamos la documentación de SQL Server, pero de verdad, no solo los ejemplos de código. Miremos planes de ejecución como si fueran mapas del tesoro, no como pantallazos incomprensibles.

Aprender los fundamentos es como afilar el cuchillo antes de cortar. Puede parecer una pérdida de tiempo… hasta que cortas mejor, más rápido, y sin cortarte tú.

Conclusión

Yo no quiero trabajar con gente que se sabe 50 funciones de ventana pero no entiende lo que hace un ROLLBACK. Quiero trabajar con gente que tenga criterio. Y ese criterio solo se construye con base, no con atajos.

Así que sí: hay que estudiar los fundamentos. Porque eso es lo que marca la diferencia entre un profesional fiable y alguien que copia y pega esperando que funcione. No es glamour. No es moda. Es oficio.

Y si este verano tienes un rato, échale un ojo a cómo funciona el Transaction Log. Te prometo que es más interesante que muchas series. Y desde luego, más útil.

Si tenéis alguna duda o sugerencia, podéis dejarla en Twitter, por mail o dejarnos un mensaje en los comentarios. Y recuerda que también tenemos un grupo de LinkedIn y un canal de YouTube a los que te puede unir. ¡Hasta la próxima!

Publicado por Roberto Carrancio en Otros, 1 comentario

¿Cómo convertirse en DBA este 2025?

Desde que tengo más visibilidad en redes sociales y empiezo a aparecer en eventos, hay una pregunta que se repite una y otra vez: ¿Cómo se convierte uno en DBA si todas las ofertas, incluso las de junior, piden años de experiencia?

Y es que, convertirse en DBA en 2025 es un poco como intentar entrar en una sala VIP donde no hay puerta ni cartel. Todo el mundo te dice que necesitas experiencia, pero nadie te da la oportunidad de adquirirla. Las ofertas que se etiquetan como junior piden tres años de experiencia, conocimientos avanzados de T-SQL, algo de PowerShell, HA/DR, y si puedes ser experto en Azure, mejor. Y todo eso por, digamos, 24K y una guardia cada dos semanas.

No es que el mercado esté cerrado. Es que el rol del DBA, tal y como se entiende hoy, no es un puesto de entrada. Es una evolución.

No hay un camino único para ser DBA, pero sí dos rutas habituales

Los que acabamos siendo DBAs casi nunca lo decidimos desde el principio. No es como querer ser desarrollador backend o administrador de sistemas. Normalmente nadie sueña con revisar alertas de TempDB a las 3 de la mañana o analizar por qué una MERGE se ha cargado 4 millones de filas de más (y de paso, media reputación del equipo). Pero un día estás ahí, y te das cuenta de que sabes más que nadie del rendimiento de la base de datos, del modelo de datos y de por qué la aplicación se cae todos los lunes a las 9:03.

En mi experiencia, los perfiles que acaban siendo buenos DBAs vienen sobre todo de dos mundos: desarrollo o administración de sistemas. Cada ruta tiene sus fortalezas, sus trampas y su forma particular de enseñarte a base de golpes.

Llegar a DBA desde el desarrollo

Los que vienen del desarrollo conocen bien el lenguaje T-SQL, entienden cómo piensan los desarrolladores y tienen facilidad para leer y optimizar consultas. Es habitual que en equipos sin DBA, el dev más curioso empiece a encargarse de las bases de datos “porque se le da bien”. Lo típico: arregla un SELECT, luego otro, y cuando se quiere dar cuenta, está explicando a los demás cómo hacer un JOIN decente o por qué ese UPDATE va camino del desastre. Sin saberlo, ya está ejerciendo de DBA. Solo falta que lo asuma.

Llegar a DBA desde la infraestructura

Desde administración de sistemas, el camino es distinto. Aquí se llega por la capa de infraestructura: gestionar instancias, montar clústeres, configurar copias de seguridad, monitorizar el espacio en disco y automatizar tareas repetitivas. Lo bueno de este enfoque es que la persona ya tiene mentalidad de disponibilidad, control, mantenimiento y alertas. Lo malo: si no se mete de lleno con el código, acaba siendo un DBA a medias. Y con el tiempo, esos se quedan fuera de juego.

La clave, en ambos casos, es la misma: asumir responsabilidades de DBA antes de que te lo reconozcan oficialmente. Nadie te va a dar el título. Te lo tienes que ganar.

Cursos, formación y el eterno dilema de si certificarse o no

Vamos con un tema sensible: ¿sirven para algo los cursos y las certificaciones? Pues depende. Como casi todo.

Empecemos por los cursos. En SQL Server no existen cursos oficiales de formación como tal. Microsoft tiene la certificación (de eso hablaremos luego), pero no ofrece un itinerario formativo estructurado y mantenido. Hay empresas que imparten cursos propios, algunos buenos, otros reciclados de 2012 con pantallazos de Management Studio en modo arqueológico.

Eso sí, en otras tecnologías la cosa cambia. Oracle, PostgreSQL, MongoDB… ahí sí hay formación oficial, bien montada, con laboratorios y materiales decentes. Pero claro, si quieres ser DBA de SQL Server, eso no te sirve de mucho (aunque nunca está de más abrir el radar).

Ahora, las certificaciones

¿Vale la pena sacar la DP-300 de Microsoft? Vamos por partes.

Seamos sinceros, yo por ejemplo no la tengo. En mi opinión personal (OPINIÓN EXCLUSIVAMENTE MIA), si tienes experiencia, la certificación no te va a enseñar nada que no sepas ya. Pero te da una credencial, y a veces, eso abre puertas que no abre tu CV. Es útil si quieres justificar conocimiento frente a RRHH, a una consultora o a un cliente que no sabe distinguir un WAIT STATS de un WAITRESS (chiste malo para los que saben inglés). Para mi, no mide lo que sabes, pero sí que sabes “lo suficiente como para certificarte”.

Ahora bien, si no tienes experiencia real, aunque la DP-300 no te va a convertir en DBA por arte de magia si puede servirte para marcar el terreno. Demuestra interés, compromiso y, al menos, cierto conocimiento básico. Si estás empezando y puedes permitirte el esfuerzo, mejor tenerla que no tener nada. Pero no esperes que te contraten como DBA solo por tenerla. No funciona así.

El laboratorio personal: mejor que mil cursos, o complemento a ellos

Una de las formas más efectivas de adquirir experiencia como DBA es montarte tu propio laboratorio. Aquí puedes poner en práctica todo lo que aprendes en cursos o por tu cuenta. No hay tutores, no hay guías de solución, cuando algo no arranca, el culpable eres tú. Justo como en producción, vaya.

Tampoco te asustes, no hace falta hipotecarse y comprar un super servidor para jugar con SQL Server. Con Docker, Azure o incluso un mini PC de segunda mano puedes hacer pruebas más que decentes. Lo importante no es montarse un Always On para enseñarselo a tu madre. Es aprender, romper cosas, configurarlas mal, arreglarlas, medir, volver a romper… y así hasta que entiendas por qué las cosas funcionan (o no).

Y sí, tengo en marcha una serie completa en YouTube donde explico cómo montar un SQL Server Home Lab, con Proxmox, Windows Server, Active Directory, SQL Server 2022 y conexiones remotas. Pero ojo, no es porque piense que todo el mundo tenga que hacerlo. Es porque si decides dar ese paso, quiero que lo hagas con criterio. Y sobre todo, sabiendo lo que estás montando y para qué. Puedes ver la serie completa aquí.

¿Y si no hay ofertas de DBA junior? Pues se crea experiencia sin que te la den hecha

Vamos al meollo. ¿Cómo consigues experiencia si no hay ofertas junior? Pues haciendo de DBA sin permiso, literalmente.

Me explico antes de que nadie me salte al cuello. Si estás en un equipo de desarrollo, asume todo lo que puedas relacionado con la base de datos. Revisa el código SQL, pregunta por los planes de ejecución, mide los tiempos, analiza los índices. Que cada vez que haya un problema en SQL Server, alguien diga que la solución pasa por preguntarte a ti. Hazlo bien una, dos, tres veces. Y cuando lo hayas hecho suficientes veces, empieza a firmar como DBA en tu perfil de LinkedIn. Lo eres, aunque tu contrato diga otra cosa.

Si vienes de sistemas, empieza a documentar los entornos, automatiza backups y monitorización, identifica ineficiencias, saca métricas y mejora procesos. Aprende a leer logs de errores como si fueran novelas de misterio. Y luego mete la cabeza en el rendimiento. Aunque dé vértigo.

Nada de esto va en el CV con letras doradas, pero todo se nota cuando hablas con propiedad en una entrevista.

¿Y qué pasa si te piden experiencia de DBA y tú no la tienes?

Pasa constantemente. Las ofertas junior no existen o son un eufemismo. Pero si te presentas con actitud, con conocimiento técnico razonable, con un entorno montado por ti y capacidad para hablar con claridad de lo que has hecho (aunque sea sin contrato), tienes más opciones de las que parece.

Muchos de nosotros no tuvimos un puesto de “DBA Junior”. Tuvimos un puesto donde nadie se ocupaba de las bases de datos, y nos tocó hacerlo a base de errores. Y desde ahí crecimos.

La diferencia entre los que entran y los que no suele ser una: no esperar a que alguien les diga que ya pueden intentarlo.

Conclusión: nadie te da el título de DBA. Te lo ganas

Ser DBA no es un primer empleo. Es una evolución. Pero puedes empezar ese camino desde desarrollo, desde sistemas o incluso desde BI. Lo importante es asumir esas tareas, resolver problemas reales, meter las manos en el motor y no esperar a que venga alguien a explicarte cómo se hace.

Y sí, la DP-300 ayuda. Pero no sustituye la experiencia. Los cursos también. Si sabes elegirlos.

Y sobre todo: si nadie te da experiencia… róbala. Haz de DBA antes de serlo. Porque en este mundillo, la validación llega después del trabajo. Nunca antes.

Si tenéis alguna duda o sugerencia, podéis dejarla en Twitter, por mail o dejarnos un mensaje en los comentarios. Y recuerda que también tenemos un grupo de LinkedIn y un canal de YouTube a los que te puede unir. ¡Hasta la próxima!

Publicado por Roberto Carrancio en Cloud, SQL Server, 0 comentarios

¿Trabajar 15 horas (o menos) a la semana como DBA? Depende del tipo de DBA que seas

Hace poco, Brent Ozar publicó un artículo comentando una conversación en Reddit que planteaba una pregunta tan ingenua como recurrente: ¿de verdad hay DBAs cobrando un pastizal por trabajar 15 horas a la semana mientras el resto del tiempo ven vídeos o están “de guardia”?

Spoiler: sí, pero no es lo habitual, ni llega de la nada, ni cualquiera puede aspirar a eso. El artículo analiza muy bien los matices detrás de ese escenario, y ya que yo llevo más de una década trabajando con SQL Server, quiero aportar mi perspectiva sobre cómo se vive esto aquí. Porque el contexto importa, y mucho.

DBA de Infraestructura vs DBA de optimización

En el mercado español, y esto lo digo por experiencia directa, los perfiles DBA suelen dividirse claramente entre los que se encargan de la infraestructura y los que nos centramos en la optimización. Los primeros están más cerca del mundo sysadmin: alta disponibilidad, backups, parches, clústeres, automatización de tareas rutinarias. Los segundos vivimos más pegados al código: tuning de queries, revisión de planes de ejecución, diseño de índices y control del rendimiento.

Ahora bien, los que realmente marcamos la diferencia somos los que hemos aprendido a movernos en ambos mundos. Ese es el perfil que he desarrollado con los años y al que creo que todos deberíamos aspirar. No tiene sentido saber montar un AG perfecto si luego no detectas un SELECT * a pelo en una tabla de 300 millones de filas. Y viceversa.

El entorno lo define todo: DBA interno vs. DBA externalizado

Otra diferencia clave, y que marca el tipo de trabajo que hacemos, es si estamos dentro de un cliente final o trabajamos en una consultora o equipo de soporte multicliente.

Yo he pasado por ambos mundos, y la diferencia es abismal. Cuando estás en cliente final, con un parque de servidores limitado (pongamos menos de 20), tienes margen para hacer las cosas bien. Puedes auditar el entorno, meter procesos de automatización, eliminar errores históricos y acabar interviniendo en decisiones de diseño. Incluso te conviertes en un filtro obligado antes de subir cambios a producción.

Después de ese primer año o dos de “puesta a punto”, el trabajo se estabiliza. Las incidencias bajan, los entornos están controlados y puedes dedicar tiempo a tareas de más valor. A veces, incluso, te conviertes en esa figura que aparece poco… pero cuando aparece, es por algo serio.

En cambio, cuando estás en un cliente grande o en una consultora gestionando cientos o miles de servidores, el enfoque cambia. Hay que actuar por patrones, automatizar a escala y asumir que no vas a conocer cada entorno al detalle. Te pasas más tiempo apagando fuegos que optimizando consultas. Lo urgente gana a lo importante, y profundizar se convierte en un lujo.

¿Y los desarrolladores que ejercen de DBA?

Aquí conviene puntualizar. Existen desarrolladores SQL que asumen funciones de DBA y lo hacen bien. He trabajado con varios y sé que hay perfiles muy sólidos que entienden el motor, cuidan el rendimiento, diseñan esquemas con criterio y se preocupan por el coste real de sus consultas.

Este artículo también va por ellos. Porque son, en esencia, parte del mismo ecosistema. Saben lo que hacen, aunque su tarjeta no ponga “DBA”.

Ahora bien, también todos hemos visto el otro extremo, equipos donde nadie tiene perfil de base de datos y se asume que “el que más sabe de SQL” llevará los servidores. En esos casos, se sobrevive como se puede. Backups por defecto (con suerte), configuraciones sin revisar y scripts de producción lanzados con los dedos cruzados.

No es raro ver scripts de mantenimiento programados en el Post-it Engine, versión papel pegado al monitor. Y la documentación vive, cómo no, en la bandeja de entrada de alguien que ya no está en la empresa.

No es raro, pero no es lo que nos interesa hoy. Aquí estamos hablando de roles expertos. De gente que sabe lo que es un latch y por qué TEMPDB puede ser un cuello de botella aunque no tenga muchos datos.

¿Trabajar 15 horas o menos a la semana como DBA? Sí, pero no como te imaginas

Lo que cuenta Brent sobre ese DBA que trabaja 15 horas a la semana o menos y el resto del tiempo está en “modo guardia” es perfectamente posible. Pero no es un privilegio aleatorio, ni una herencia. Es el resultado de años de trabajo bien hecho.

Yo he estado en esa posición. He tenido entornos donde, después de automatizar, revisar, auditar y consolidar, apenas había incidencias. Y cuando las había, las resolvía rápido. No porque tuviera suerte, sino porque conocía el entorno al detalle.

En esos escenarios, no estás “siempre productivo”. De hecho, a veces ni siquiera un 10% del tiempo. Pero cuando hay un problema, tu intervención marca la diferencia. No puedes dudar, no puedes consultar la documentación. Tienes que actuar con precisión y rapidez. Porque si tardas 30 minutos más de la cuenta, el sistema de ventas se cae, el almacén se para o la factura al cliente se multiplica por dos.

No estás al 100%. Ni falta que hace. Estás como los extintores: colgado en la pared, sin moverse, hasta que alguien grita y hay que actuar. Solo que tú sabes más de índices que de espuma.

Este tipo de puesto no es para cualquiera. Y desde luego, no es un trabajo cómodo. Es un rol de alta responsabilidad y alta exigencia, aunque no lo parezca desde fuera.

¿El rol del DBA está en peligro?

Llevamos años oyendo que el DBA está muerto. Que si la nube automatiza todo, que si los desarrolladores se bastan solos, que si la IA lo va a arreglar todo con cuatro sugerencias inteligentes.

La realidad es que el rol está cambiando, no desapareciendo. Los DBAs de infraestructura han tenido que evolucionar hacia entornos híbridos, servicios PaaS, IaC, automatización. Pero los problemas siguen existiendo, solo que tienen otro nombre.

Y los DBAs de optimización somos ahora más importantes que nunca. Especialmente en entornos cloud, donde cada milisegundo extra tiene un precio literal. Cuando un SELECT mal optimizado empieza a generar 30 euros por hora de DTUs, todo el mundo mira al DBA. No al desarrollador, no al arquitecto, no al jefe de proyecto. A nosotros.

DBA cada segundo cuenta

Las herramientas (de IA o no) que prometen optimizarlo todo aún están lejos de ser útiles, al menos sin intervención. Usamos Copilot, sí. Pero lo que da miedo no es lo que sugiere, sino que alguien lo acepte sin parpadear.

Copilot a veces acierta… como un reloj parado. Dos veces al día, da una respuesta aceptable. El problema es todo lo que sugiere entre medias.

Saber distinguir el buen consejo del disparate es, y seguirá siendo, trabajo nuestro.

Conclusión: menos horas, más impacto

Trabajar 15 horas a la semana o menos no significa trabajar poco. Significa haber llegado a un punto donde aportamos valor real justo cuando hace falta.

No estamos todo el día productivos. Pero cuando algo revienta, actuamos con decisión. Y eso solo se consigue con años de experiencia, conocimiento técnico profundo y sangre fría. Porque cada minuto cuenta cuando la producción está caída.

El puesto de DBA no está en peligro. Lo que está en peligro es seguir pensando que esto va de hacer backups y mirar gráficas. El futuro es de los que afinan, automatizan y cuando hay que actuar… no preguntan, resuelven. Y sí, puede parecer que no hacemos mucho. Pero cuando hacemos, salvamos el día, la semana y la cuenta de resultados de la empresa. Y eso vale más que cualquier KPI de los Project Manager.

Si tenéis alguna duda o sugerencia, podéis dejarla en Twitter, por mail o dejarnos un mensaje en los comentarios. Y recuerda que también tenemos un grupo de LinkedIn y un canal de YouTube a los que te puede unir. ¡Hasta la próxima!

Publicado por Roberto Carrancio en Cloud, SQL Server, 0 comentarios

SQL contra el Apocalipsis Mutante (Parte 5): Última defensa

Pensábamos que lo peor ya había pasado. Que después de clasificar refugios, contar infectados y trazar mapas de avistamientos podríamos respirar. Ilusos.

La tercera y última parte nos obligó a sacar toda la artillería. Ya no bastaba con consultar datos. Había que analizar patrones, construir rutas de evacuación dinámicas y generar informes multidimensionales. Y sí, todo eso con SQL.

Aquí tienes las soluciones explicadas de los últimos cinco retos. Si estás leyendo esto, es que todavía no te han comido.

Reto 3.1 – Ranking por armamento: quién manda aquí

La cosa está cada vez peor, necesitamos urgentemente asignar un número a cada refugio según la cantidad de armas que tiene. Así de simple. O así de esencial, si estás organizando una defensa coordinada y necesitas saber a quién se le puede confiar una ametralladora sin que se dispare en el pie.

Empezamos suavecito, hay que calentar. ROW_NUMBER() es una función de ventana que genera un contador dentro del conjunto de datos, según el orden que tú le digas. Aquí lo ordenamos por Weapons DESC, es decir, del más armado al menos. Cada refugio recibe un número único, sin importar si hay empates.

Esto no devuelve “quién tiene más armas”, sino quién va primero, segundo, tercero…. Una forma de tomar decisiones rápidas sin tener que pensar demasiado. Como debe ser en medio de un asalto mutante.

Reto 3.2 – Comparar infectados entre refugios vecinos

Se nos pide una labor fundamental para analizar la situación, ver si los números de infectados suben o bajan en los refugios contiguos. No para hacer turismo sanitario, sino para prever si un brote se está expandiendo.

Y ahora si, funciones de ventana de verdad, LAG(Infected, 1) devuelve el número de infectados del refugio anterior mientras que LEAD(Infected, 1) devuelve el número de infectados del siguiente. Ambos requieren un orden: en este caso, ORDER BY RefugeID.

Esta es una forma elegante de comparar filas sin tener que auto-unir la tabla consigo misma. Ideal para ver tendencias, anomalías… o refugios que están a punto de convertirse en un problema.

Reto 3.3 – Avistamientos y totales con ROLLUP

Otro imprescindible, crear un informe con los avistamientos de mutantes por día y ubicación, pero incluyendo totales parciales. ¿Por qué? Porque en el apocalipsis, igual que en el día a día en la oficina, alguien en la cadena de mando pidió “una vista agregada para facilitar la toma de decisiones” y no supimos decir que no.

En este caso ROLLUP nos permite agrupar en varios niveles:

  • Día + coordenadas → número de avistamientos
  • Día (sin coordenadas) → total de ese día
  • Total global

Esto genera filas con valores NULL en las columnas que se van agregando. Si no sabes leer esas NULL, no estás leyendo totales. Estás leyendo confusión. Lo bueno: es más limpio que hacer varias consultas. Lo malo: requiere que el que lo lea sepa lo que está viendo. No apto para jefes con prisas.

Reto 3.4 – Rutas de evacuación dinámicas con CTE recursiva

Entre los datos de infectados y los avistamientos nos empezamos a preocupar, ¿y si salir corriendo es la mejor opción? Por si acaso vamos a construir todas las rutas de evacuación posibles a partir del refugio 1, siguiendo las conexiones que tenemos en la tabla EvacuationRoutes.

Esto es una CTE recursiva de manual. Traducido: una tabla temporal que se llama a sí misma para recorrer un camino paso a paso. En la parte “ancla” seleccionamos las rutas que salen del refugio 1 mientras que en la parte recursiva vamos empalmando los destinos como si siguiéramos el hilo de Ariadna, construyendo la ruta completa en texto (Path).

CAST y CONVERT se usan aquí para concatenar el camino en una cadena legible: 1 -> 2 -> 3 -> 4 -> 5.

¿Tiene límites? Claro. Sin control de ciclos puede acabar en bucle infinito, como los correos entre departamentos. Pero para rutas simples, esto es perfecto.

Reto 3.5 – Informes multidimensionales con CUBE

Por si acaso antes de irnos vamos a sacar un último informe de situación. Nos han pedido sacar un informe de cuántos refugios hay por estado (CRITICAL u OK) y por nivel de armamento, incluyendo subtotales y totales. Porque si, a alguien le ha parecido bien hacer una tabla dinámica sin usar Excel.

Esto tiene miga, lo sé. Vamos por partes. Primero agrupamos por dos variables derivadas con CASE estado (CRITICAL o OK) y rango de armas (0–20, 21–50, >50). Después, con CUBE generamos todas las combinaciones posibles:

  • Cada grupo individual
  • Totales por estado
  • Totales por grupo de armas
  • Total general (cuando ambas columnas son NULL)

Si ROLLUP ya era potente, CUBE es una navaja suiza para informes complejos. Útil, pero peligroso si no sabes leer lo que devuelve.

Conclusión

Estas consultas no se escriben con prisas. Se escriben con estrategia. En esta última fase, SQL dejó de ser una herramienta de lectura para convertirse en un lenguaje de decisión.

Desde rutas de evacuación recursivas hasta informes multidimensionales, estas técnicas separan a los que saben ejecutar un SELECT de los que pueden liderar una operación de supervivencia basada en datos.

¿Es el final? Por ahora. La amenaza mutante ha sido contenida. Pero si algo hemos aprendido de los datos… es que siempre vuelven.Y esta vez, estaremos listos.

Publicado por Roberto Carrancio en Cloud, SQL Server, 0 comentarios

SQL contra el Apocalipsis Mutante (Parte 4) La resistencia responde.

Cuando empezó el apocalipsis, todo era caos: refugios al límite, suministros escasos, datos sin contexto. Pero gracias a nuestras habilidades a base de SELECT, de JOIN, de WHERE y de horas frente al terminal, la resistencia se organizó.

En esta entrega, volvemos sobre los 10 retos iniciales (parte 1 y parte 2) para mostrar cómo lo resolvimos. No simplemente hablamos de respuestas frías, estamos hablando de pasos clave en la defensa de la humanidad. Porque cada consulta lanzada a la base de datos fue una decisión crítica, y cada decisión… salvó vidas.

Parte 1: Primeros pasos bajo presión

Empezaba la primera parte, sin mucha complicación, sin imaginarnos lo que después se iba a complicar. En estos primeros retos pudimos salir del paso con consultas sencillas que vamos a ver a continuación.

Reto 1.1 – Detectar refugios al borde del colapso

Tras semanas sin recibir suministros, varios refugios estaban al borde del colapso. Necesitábamos listar los refugios con menos de 10 raciones de comida o menos de 50 litros de agua. Teníamos que conocer el RefugeID, FoodRations y WaterLiters, ordenados de menor a mayor por FoodRations. 

Para resolver este reto necesitabamos ejecutar la consulta:

En este caso seleccionamos solo las columnas que necesitábamos, seleccionar más iría contra el rendimiento. Además, el WHERE nos filtra por las condiciones críticas que necesitamos y el ORDER BY pone en primer lugar a los que se están quedando sin comida. Porque el hambre puede causar más bajas que los mutantes. Los filtros se combinan con un OR porque con cumplir cualquiera de las dos condiciones el refugio está en riesgo de colapso.

Reto 1.2 – Localizar los mejor armados

Los refugios que hemos detectado antes necesitan ayuda y solo los mejor armados podrán proporcionarles. En este momento tenemos que localizar los 5 refugios con más armamento disponible.

En esta consulta, el TOP 5 combinado con el ORDER BY nos da los resultados deseados. Ordenamos descendente para tener primero los refugios con más armas y nos quedamos con los 5 primeros resultados.

Reto 1.3 – Delimitar la zona caliente

Nos informan de movimiento de mutantes entre las latitudes 39 y 41 y longitudes -75 y -73. Tenemos que localizar qué refugios están en esa zona.

Seleccionamos solo las columnas necesarias y usamos BETWEEN para filtrar por latitud y longitud. Al contrario que en el primer escenario, usamos un AND para combinar los filtros porque para estar en la zona de los mutantes los registros tienen que cumplir ambas condiciones (estar en la misma latitud y longitud).

Reto 1.4 – Cruzar población y recursos

Tener recursos está bien. Tener gente también. Pero si no cruzas esos datos, vuelas a ciegas. Esta unión entre tablas nos permitió ver la capacidad real de cada refugio: cuántas personas había y con qué contaban para resistir.

En este caso usamos INNER JOIN para unir las tablas RefugeSupplies y SurvivorStats usando el campo RefugeID que es común entre ellas en el ON. Sin esta consulta, no puedes tomar decisiones que impliquen vidas humanas.

Reto 1.5 – Refugios en riesgo inmediato

La cosa se ponía fea, teníamos que detectar que refugios tenían demasiada gente y pocas armas. Pero claro, esos datos para filtrar estaban en tablas distintas. Primero debíamos unirlas y después filtrar por los refugios que cumpliesen con las dos condiciones.

En este caso no hay nada nuevo, simplemente combinamos el INNER JOIN del reto anterior con filtros del WHERE que combinan las dos condiciones, muchas bocas, pocas balas. Si no se actuaba rápido, no quedaría nadie a quien alimentar.

Parte 2: Cuando los informes salvan vidas

La cosa se empieza a complicar, hasta ahora hemos leído datos tal como están en la base de datos pero no hemos operado con ellos. Si queremos salvar a la humanidad tenemos que ir un paso más allá.

Reto 2.1 – Calcular la tasa de infección

No basta con contar infectados. Hay que calcular su proporción. Este cálculo nos dará la tasa de infección por refugio, y necesitábamos saber los que superaban el 5%. Una columna más que números: un indicador de si la situación estaba bajo control… o fuera de él

Hay que hacer una división entre campos pero no es tan sencillo. El doble CAST es esencial, primero lo usamos para convertir a FLOAT para que la división no se redondee a entero y luego ya, el resultado multiplicado por 100 lo convertimos a DECIMAL(5,2) para obtener un porcentaje legible. Podríamos haberlo hecho también con CONVERT en vez de CAST siguiendo la misma lógica. 

Reto 2.2 – Clasificar automáticamente los refugios

El tiempo iba en nuestra contra y no podíamos revisar cada fila a mano. Necesitábamos etiquetar los refugios automáticamente. 

Usamos CASE para definir una lógica simple, si la comida o el agua está por debajo del mínimo, el refugio está en estado CRITICAL. Si no, está OK. Esta clasificación era la base de cualquier estrategia.

Reto 2.3 – ¿Cuántos están en cada estado?

Somos gente de datos, y de automatismos, no podemos estar contando cuántos refugios están bien y cuántos críticos. Tenemos que dar ese dato en la misma consulta.

Ya teníamos el estado individual de cada refugio. Nos basamos en la consulta anterior, quitamos las columnas que no nos interesan y usamos GROUP BY para agrupar por estado (CRITICAL u OK). Con eso y un COUNT(*) nos daba el número de refugios en cada grupo. 

Reto 2.4 – Avistamientos recientes por día

Las hordas no atacan a ciegas. Tampoco nosotros. Necesitábamos construir una consulta para seguir la evolución diaria de los avistamientos durante la última semana.

En este caso el CAST(… AS DATE) elimina la hora para agrupar correctamente por dia. Después, con DATEADD(…, -7, GETDATE()) calculábamos la fecha hace siete días. El resultado: una línea temporal del infierno.

Reto 2.5 – Amenazas cercanas a refugios vulnerables

Este fue el punto en que las cosas se pusieron serias de verdad. Necesitábamos una consulta que detectara avistamientos recientes cerca de los refugios más vulnerables.

Para ello crearemos una CTE con los refugios críticos y luego la consultaremos cruzando los datos con los de los avistamientos y las zonas.

Como decía primero creamos una CTE (CriticalRefuges) para aislar a los vulnerables. Luego, hacemos un JOIN con los avistamientos y filtramos:

  • Usamos ABS(…) < 0.5 para ver si la distancia (en coordenadas) entre refugio y avistamiento es menor de medio grado. ABS devuelve el valor absoluto (sin negativo), útil para comparar distancias.
  • También filtramos por fecha: solo avistamientos de los últimos 3 días.

Esta consulta era difícil. No tenemos un filtro de igualdad en el JOIN, lo que no es habitual. En su lugar tenemos los filtros con ABS que nos dan un cuadrado de 1 grado (0.5 arriba, abajo, izquierda y derecha) alrededor del refugio. En lugar de pedir que las coordenadas sean exactamente iguales, que sería muy improbable, buscamos avistamientos que estén dentro de una distancia tolerable.

¿Es correcto este JOIN sin filtro de igualdad? 

Si lo es. Mientras la condición del ON devuelva TRUE o FALSE para evaluar combinaciones de filas entre tablas, puedes usar cualquier lógica que tenga sentido: comparaciones, funciones, expresiones booleanas…

Eso sí, no es eficiente a gran escala. Si estás trabajando con millones de filas y distancias reales, lo suyo es usar funciones geoespaciales (GEOGRAPHY, STDistance, índices espaciales, etc.). Pero para nuestro contexto postapocalíptico con pocos refugios y unos pocos mutantes… sobra potencia.

En otras palabras, ese JOIN actúa como un filtro espacial aproximado, no como un emparejamiento exacto.

Conclusión

Estos diez retos no son simples ejercicios de SQL. Son decisiones técnicas con consecuencias narrativas y operativas. Cada uno nos enseñó algo: a leer mejor los datos, a cruzarlos con cabeza, a anticipar problemas. Pero si pensabas que eso era todo… no conoces el apocalipsis. Porque las consultas más complejas aún están por llegar. Y cuando lo hagan, necesitaremos algo más que SELECT. Nos vemos en la última entrega. Por si acaso trae casco. …O un bate con clavos.

Publicado por Roberto Carrancio en Cloud, SQL Server, 0 comentarios