Hay proyectos que te ponen a prueba de una forma que no olvidas. Mad Cool fue uno de ellos.
Tres ediciones. Dos recintos. Un festival que creció más rápido de lo que nadie esperaba. Y un equipo técnico que tuvo que inventar soluciones sobre la marcha porque, sencillamente, no existía un manual para lo que estábamos haciendo.
Este artículo cuenta cómo fueron los primeros años de enbex como partner técnico del Mad Cool Festival, entre 2016 y 2018. No es un caso de éxito pulido. Es una historia de trincheras. De kilómetros de cable tirados contra reloj. De datáfonos que necesitaban red cableada porque nadie se fiaba del WiFi para cobrar. De cientos de puntos de acceso instalados en recintos que cada año cambiaban de forma. Y de un aprendizaje intenso que, junto con muchos otros proyectos, forma parte de lo que enbex es hoy.
Mad Cool 2016 y 2017: los inicios en la Caja Mágica
El Mad Cool nació en 2016 en la Caja Mágica de Madrid. Tres días de festival. Más de 100.000 asistentes en su primera edición. Un cartel que incluía a The Who, Neil Young y The Prodigy. Para ser un festival nuevo, arrancó con una ambición que dejaba claro que esto iba en serio.
En 2017, la segunda edición agotó entradas tres meses antes. Green Day, Foo Fighters y Kings of Leon encabezaban un cartel que atrajo a 135.000 personas. El festival ya no era una promesa. Era el macrofestival que Madrid llevaba años esperando.
enbex estaba ahí desde el primer día. Nuestro trabajo era montar toda la infraestructura de telecomunicaciones del recinto. Red cableada para barras, zonas de restauración y puntos de cobro. WiFi para prensa, artistas y backstage. Conectividad para activaciones de marca, stands de patrocinadores y la organización interna del festival. Todo lo que necesitaba una conexión a internet para funcionar pasaba por la red que montábamos.
Cuando el cable era el rey
Hoy en día, los sistemas de pago y los datáfonos funcionan por WiFi sin problema. Pero en 2016 la realidad era otra. Los operadores de barras no confiaban en las conexiones inalámbricas para cobrar. Un fallo de WiFi significaba dejar de facturar. Nadie quería asumir ese riesgo.
Los datáfonos de aquella época se sincronizaban con una base conectada por cable de red. El terminal del camarero se enlazaba a esa base por Bluetooth, y la base necesitaba su toma Ethernet para comunicarse con el servidor de pagos. Si la base perdía conexión, todos los terminales Bluetooth vinculados a ella dejaban de funcionar. Un solo cable suelto podía dejar una barra entera sin cobro.
Al mismo tiempo, estaban apareciendo los primeros tótems de recarga de pulseras cashless. El modelo de pago sin efectivo empezaba a abrirse camino en los festivales grandes. Esos tótems necesitaban red estable para procesar las recargas contra el servidor central. Eran un elemento nuevo que sumaba más puntos de conexión cableada a un despliegue que ya era enorme.
El resultado era un tendido de cable descomunal. Cada barra, cada tótem, cada punto de venta iba conectado por Ethernet. Hablamos de cientos de conexiones cableadas repartidas por todo el recinto. Miles de metros de cable de red, literalmente. Tendidos por suelo de recinto, por estructuras temporales, por barras desmontables y por carpas que cambiaban de posición cada edición.
Los troncales entre zonas se tiraban con fibra óptica para garantizar el ancho de banda. Era un trabajo físico enorme que empezaba días antes del festival y no terminaba hasta pocas horas antes de abrir puertas.
El momento tecnológico: todo estaba cambiando
Para entender la magnitud de lo que se montaba en Mad Cool hay que situarse en el momento exacto. Entre 2016 y 2018, el sector de eventos estaba en plena transición tecnológica. Muchas cosas que hoy se dan por sentadas estaban entonces naciendo o ni siquiera existían.
Las redes móviles se saturaban con facilidad en eventos masivos. Meter 80.000 personas en un recinto hacía que las antenas de los operadores colapsaran. Los primeros camiones con repetidores móviles empezaban a desplegarse en festivales grandes para reforzar la cobertura celular. Pero su capacidad era limitada y su coste, alto. Depender de la red móvil para servicios críticos como cobros o acreditaciones no era una opción.
En el mundo del cableado, la fibra óptica ya era el estándar para los troncales de red. Sin ella, las distancias de un recinto como Valdebebas habrían sido imposibles de cubrir con cobre. Se trabajaba con nuevos protocolos que permitían gestionar mejor el tráfico en entornos de alta densidad. Los enlaces de 10 Gbps ya existían como tecnología, pero su coste los hacía inaccesibles para la mayoría de despliegues temporales. Trabajábamos con lo que había, optimizando cada megabit disponible.
La era del 2,4 GHz y el salto al 5 GHz
El WiFi de aquellos años funcionaba mayoritariamente en la banda de 2,4 GHz. Casi todos los dispositivos — móviles, portátiles, datáfonos, terminales de punto de venta — operaban en esa frecuencia. El problema es que 2,4 GHz solo ofrece tres canales no solapados. Tres. Para un recinto con cien puntos de acceso y decenas de miles de dispositivos, eso es un cuello de botella brutal.
La banda de 5 GHz existía, pero la adopción estaba empezando. Muchos dispositivos de cliente aún no la soportaban. Los datáfonos y terminales de cobro, casi ninguno. Eso obligaba a mantener la mayor parte de la infraestructura en 2,4 GHz, aceptando sus limitaciones y peleando por cada canal disponible.
El salto progresivo al 5 GHz fue un alivio enorme. Más canales, menos interferencias, más capacidad por AP. Pero durante esas primeras ediciones de Mad Cool, la realidad era convivir con una banda saturada y hacer milagros de planificación RF para que todo funcionase.
Radioenlaces: los primeros equipos de 60 GHz
Otra tecnología que estaba emergiendo eran los radioenlaces punto a punto de alta capacidad. Conectar dos zonas de un recinto temporal por cable no siempre era posible. A veces había una carretera de por medio, una estructura que impedía el paso o una distancia que hacía inviable tirar cobre o fibra.
Los radioenlaces resolvían ese problema enviando datos por el aire entre dos antenas alineadas. Los primeros equipos de 60 GHz empezaban a llegar al mercado. Ofrecían anchos de banda de varios gigabits por segundo, suficientes para sustituir un troncal de fibra en distancias cortas. Pero eran productos nuevos, caros y con poca trayectoria en entornos de producción real.
Trabajar con estas tecnologías en fase temprana exigía un criterio técnico que iba más allá de leer la hoja de datos. Había que saber qué prometía el fabricante, qué entregaba de verdad en campo y qué margen de seguridad dejar para no llevarse sorpresas el día del evento. Una cosa era lo que decía la ficha técnica en condiciones ideales. Otra muy distinta era el rendimiento real con interferencias, viento, humedad y miles de personas moviéndose por el recinto.
Esa capacidad de evaluar tecnología emergente y decidir cuándo apostar por ella y cuándo no es algo que solo se desarrolla probando en entornos reales. Mad Cool fue uno de esos entornos donde tecnologías que hoy son estándar se pusieron a prueba por primera vez en condiciones de producción.
Cada toma era sagrada
En un festival donde toda la facturación de barras depende de la red, cada conexión cableada es crítica. Si un cable falla en una barra que factura miles de euros por hora, el impacto es inmediato. Por eso cada toma se etiquetaba, se testaba y se mapeaba a un puerto de switch concreto.
Cuando surgía una incidencia — y en un recinto temporal con miles de personas pisando cables, las incidencias surgían — el equipo técnico podía localizar el problema en segundos. Sabíamos exactamente qué cable, qué switch y qué puerto estaba afectado. Esa documentación meticulosa fue una de las primeras lecciones que aprendimos y que seguimos aplicando hoy en cada despliegue.
100 a 120 puntos de acceso WiFi: cubrir cada rincón
Además del cableado masivo para cobros, el festival necesitaba cobertura WiFi en todo el recinto. Prensa acreditada que enviaba crónicas en tiempo real. Artistas y equipos técnicos que necesitaban red en backstage. Activaciones de marca que requerían internet para sus instalaciones interactivas. Stands de patrocinadores que pedían conexión dedicada.
Para cubrir todo eso desplegábamos entre 100 y 120 puntos de acceso en cada edición. Repartidos por escenarios, zonas de prensa, backstage, áreas de restauración, espacios VIP y la zona expositiva. Cada AP se posicionaba según un estudio de cobertura previo, con su canal asignado y su potencia ajustada para evitar interferencias con los vecinos.
Pero un festival no es un edificio de oficinas. El plano cambiaba de una edición a otra. Los escenarios se movían. Las barras se reubicaban. Las carpas aparecían en sitios nuevos. Eso obligaba a replantear el diseño de la red WiFi desde cero cada año. Nada se podía copiar y pegar de la edición anterior.
2018: el salto a Valdebebas y las 80.000 personas
La tercera edición marcó un antes y un después. El éxito de las dos primeras ediciones obligó a buscar un recinto más grande. Mad Cool se trasladó al Espacio Mad Cool, junto a IFEMA en Valdebebas. El aforo saltó a 80.000 personas diarias. Siete escenarios. Cuatro al aire libre y tres en carpa. Un recinto de 185.000 metros cuadrados.
Para enbex, este salto multiplicó la escala del despliegue de forma brutal. Pasamos de un recinto conocido y relativamente compacto como la Caja Mágica a un espacio enorme que había que cablear desde cero. Las distancias entre zonas se duplicaron. El número de barras y puntos de cobro creció proporcionalmente al aforo. Y las peticiones de conectividad de stands y activaciones de marca se dispararon.
Cada patrocinador quería internet en su activación. Cada marca presente en la zona expositiva pedía su conexión dedicada. Las zonas de restauración, ahora mucho más extensas, necesitaban más puntos de red que nunca. Era como montar una ciudad temporal con su propia infraestructura de telecomunicaciones en cuestión de días.
Montajes maratonianos
El montaje de la red en Valdebebas fue el más largo y exigente de los tres años. Kilómetros adicionales de cable. Tiradas de fibra óptica más largas para cubrir las distancias del nuevo recinto. Switches de distribución adicionales desplegados en puntos intermedios. Y todo con un calendario de montaje que competía con el de los escenarios, la iluminación, el sonido y la hostelería.
Coordinar el tendido de cable con el resto de equipos de montaje es un arte en sí mismo. No puedes pasar cable por donde van a montar una barra al día siguiente. Tampoco puedes cablear una zona de escenario si la estructura no está terminada. El equipo de red tiene que adaptarse al ritmo de montaje general, aprovechar ventanas de tiempo y a veces trabajar de madrugada para avanzar sin estorbar.
Fueron jornadas largas. Muy largas. Pero de esas jornadas salió un equipo curtido que hoy monta infraestructuras complejas con una eficiencia que solo se consigue habiendo pasado por experiencias así.
La pesadilla de los datáfonos (y cómo se resolvió)
Si hay algo que marcó esos primeros años, fueron los datáfonos. El sistema base-Bluetooth que describíamos antes generaba una cadena de dependencias frágil. El terminal del camarero dependía del Bluetooth. El Bluetooth dependía de la base. La base dependía del cable Ethernet. El cable dependía del switch. Y el switch dependía del enlace troncal de fibra.
Cualquier eslabón que fallase dejaba sin cobro a una barra entera. En un festival con decenas de puntos de venta operando a la vez, diagnosticar si el fallo estaba en el Bluetooth, en la base, en el cable, en el switch o en el troncal era un ejercicio que tenía que hacerse en minutos, no en horas.
A eso había que sumar los tótems de recarga de pulseras, que compartían la misma red y añadían tráfico extra. Un tótem procesando recargas genera ráfagas de datos contra el servidor que compiten con los datáfonos por el ancho de banda del segmento. Sin una segmentación adecuada, unos podían afectar a otros.
Aprendimos a tratar la red de cobros como un sistema de misión crítica. Su propio segmento aislado del resto del tráfico. Prioridad absoluta en los switches. Redundancia en los enlaces de las zonas de barras. Y sobre todo, un protocolo de diagnóstico rápido que iba eslabón por eslabón hasta encontrar el punto de fallo.
Esas lecciones siguen vigentes. La tecnología de los terminales ha cambiado, pero la filosofía no: la red de cobros no puede caer. Nunca.
El backstage: donde la red también es imprescindible
Hay una parte del festival que el público no ve pero que necesita conectividad igual o más que el resto: el backstage. Artistas, managers, promotores, equipos técnicos de sonido e iluminación, producción del festival. Todos necesitan internet.
Montar WiFi en un backstage de festival tiene sus propias particularidades. Los camerinos son estructuras temporales que se montan y desmontan. Los riders técnicos de los artistas a veces incluyen requisitos específicos de conectividad. La producción del festival gestiona tiempos, incidencias y comunicaciones internas a través de la red.
En Mad Cool habilitábamos redes WiFi dedicadas en las zonas de backstage, aisladas del tráfico público y con el ancho de banda necesario para que equipos de producción pudieran trabajar sin depender de la cobertura móvil. En un recinto con 80.000 personas saturando las antenas de los operadores, la cobertura 4G era prácticamente inusable. La red WiFi de enbex era la única opción fiable.
Lo que aprendimos: tres años que lo cambiaron todo
Mad Cool fue uno de esos proyectos que dejan huella. Tres ediciones que comprimieron mucho aprendizaje en poco tiempo. Cada edición trajo retos nuevos y cada reto dejó una lección que sigue vigente.
Aprendimos que la red de cobros va antes que todo lo demás. Que un festival crece más rápido que cualquier previsión y hay que diseñar con margen. Que el cableado en recintos temporales exige una logística tan cuidada como la de los escenarios. Que la documentación de cada toma y cada puerto de switch ahorra horas de diagnóstico cuando surge un problema a las tres de la madrugada.
También aprendimos a trabajar bajo una presión que no se parece a nada. Cuando faltan seis horas para abrir puertas y hay 200 metros de cable sin tender, no vale buscar culpables. Vale ponerse a tirar cable. Esa mentalidad de resolver primero y analizar después es parte del ADN de enbex desde entonces.
Hoy, enbex ejecuta decenas de proyectos cada año. Congresos internacionales. Competiciones deportivas. Partidos de fútbol. Festivales de música. Presentaciones de producto. Eventos corporativos privados. Retransmisiones televisivas. Cada uno con sus propias exigencias y su propia complejidad. Mad Cool fue uno de los primeros proyectos grandes. De esos que te obligan a crecer rápido, a resolver sin excusas y a no olvidar nunca lo que funciona bajo presión.
Ficha técnica del despliegue
Evento: Mad Cool Festival — Ediciones 2016, 2017 y 2018.
Sedes: Caja Mágica (2016-2017) y Espacio Mad Cool en Valdebebas (2018).
Asistencia: De 100.000 personas en 2016 a más de 240.000 en la edición de 2018.
Puntos de acceso WiFi: Entre 100 y 120 APs por edición, con diseño RF específico para cada configuración del recinto.
Cableado: Miles de metros de cable Ethernet y fibra óptica. Cientos de conexiones cableadas dedicadas para barras, puntos de cobro, datáfonos, stands y activaciones de marca.
Servicios: Red para cobros y datáfonos, WiFi para prensa, backstage de artistas, producción del festival, activaciones de patrocinadores, zonas VIP y restauración.
Legado: Uno de los primeros grandes proyectos de enbex en festivales de música. La experiencia operativa adquirida aquí suma al conocimiento que hoy se aplica en congresos, festivales y grandes eventos.
¿Necesitas un equipo con experiencia real en grandes eventos? Contacta con enbex. Llevamos años montando lo que otros no se atreven a montar.