Más de 7.000 dispositivos conectados al mismo tiempo por WiFi. 300 clientes cableados. Más de 200 puntos de acceso de última generación. Un backbone de 10 Gbps en alta redundancia. Y todo esto montado, configurado y operado en uno de los recintos feriales más grandes de España.
Así fue el despliegue de conectividad que Enbex ejecutó para la edición europea del Congreso Mundial de Linux, celebrada en la Fira de Valencia.
Este artículo no es un resumen comercial. Es un recorrido técnico detallado por cada capa del proyecto: desde el diseño de la infraestructura de red hasta la gestión en tiempo real de miles de conexiones simultáneas, pasando por los retos específicos que plantea dar servicio a un público formado íntegramente por profesionales tecnológicos. Es decir, el tipo de usuario que nota al instante si algo no funciona como debería.
El contexto: qué significa dar WiFi a un congreso mundial de tecnología
Antes de entrar en la parte técnica, conviene entender el escenario. El Congreso Mundial de Linux en su edición europea reúne a miles de desarrolladores, ingenieros de sistemas, responsables de infraestructura y líderes de comunidades open source de todo el mundo. Es un evento organizado bajo el paraguas de la Linux Foundation, la organización que sostiene proyectos que mueven internet tal como lo conocemos: Linux, Kubernetes, Node.js, entre muchos otros.
La sede fue la Fira de Valencia, un recinto ferial de dimensiones muy considerables con múltiples pabellones, salas de conferencias, zonas de exposición y áreas comunes. El desafío no era simplemente «poner WiFi en un sitio grande». Era proporcionar conectividad de alto rendimiento, estable y segura a un público masivo que, además, es extraordinariamente exigente con la calidad de la red. Estamos hablando de gente que desarrolla software, despliega infraestructura cloud y depura problemas de red como parte de su trabajo diario. Si la latencia sube 20 milisegundos, lo notan. Si hay un micro-corte, lo detectan. Si el DHCP tarda un segundo de más, ya están abriendo un terminal para investigar.
Dicho de otra forma: no hay público más difícil al que dar servicio de red que una sala llena de ingenieros de sistemas.
Los números del despliegue: dimensionar para no quedarse corto
Cuando se diseña la conectividad para un evento de esta escala, los números lo son todo. Un error de dimensionamiento no se puede corregir durante el evento; si te quedas corto de capacidad el primer día, no hay forma realista de solucionarlo sin interrumpir el servicio. Por eso, la fase de planificación fue absolutamente crítica.
Estos fueron los números reales del despliegue:
Más de 7.000 clientes WiFi concurrentes. No estamos hablando de 7.000 personas que se conectaron a lo largo de todo el evento. Son 7.000 dispositivos conectados y transmitiendo datos al mismo tiempo. En la práctica, esta cifra es incluso más alta que el número de asistentes, porque muchos profesionales llevan varios dispositivos: portátil, móvil, tablet, y en algunos casos dispositivos IoT o de desarrollo.
300 clientes conectados por cable. Stands de sponsors, zonas de demostración, equipos de producción audiovisual y áreas de prensa necesitaban conexiones cableadas dedicadas con ancho de banda garantizado. Cada una de estas conexiones fue provisionada individualmente y con parámetros de calidad de servicio específicos.
Más de 200 puntos de acceso WiFi de última generación. No 30. No 50. Más de doscientos. Distribuidos por cada pabellón, sala, pasillo y zona común del recinto. Cada uno posicionado, orientado y configurado individualmente tras un estudio de cobertura y capacidad previo.
Backbone de red de 10 Gbps en alta redundancia. Toda la infraestructura de conmutación y distribución trabajaba a 10 Gigabits por segundo, con caminos redundantes para que un fallo en cualquier punto de la cadena no afectara al servicio.
Diseño de red: por qué 200 puntos de acceso y no 100
Una pregunta legítima que podría hacerse cualquier persona no especializada en redes inalámbricas es: ¿por qué tantos puntos de acceso? Si un access point moderno puede manejar teóricamente cientos de conexiones, ¿no bastaría con un centenar bien colocados?
La respuesta corta es no. Y la razón tiene que ver con cómo funciona realmente el WiFi en entornos de alta densidad.
Un punto de acceso WiFi empresarial de última generación puede, en su especificación técnica, asociar cientos de clientes simultáneos. Pero una cosa es la capacidad de asociación — cuántos dispositivos pueden estar registrados en la tabla MAC del AP — y otra muy distinta es la capacidad de servicio real, es decir, cuántos de esos dispositivos pueden estar transmitiendo datos activamente con una calidad aceptable.
Las buenas prácticas de la industria, respaldadas por fabricantes como Cisco, Aruba y otros referentes, coinciden en un punto: para mantener un rendimiento aceptable, no deberías superar los 20-30 clientes activos por radio en un entorno de alta densidad. Esto se debe a las limitaciones inherentes del medio compartido que es el espectro radioeléctrico. Cuantos más dispositivos compiten por hablar en el mismo canal al mismo tiempo, más colisiones se producen, más retransmisiones son necesarias y más se degrada el throughput efectivo para cada usuario.
Si hacemos las cuentas: 7.000 dispositivos divididos entre un máximo recomendado de 25 clientes activos por radio, necesitamos al menos 280 radios operativas solo para la banda de 5 GHz. Y esto sin contar la banda de 2.4 GHz (necesaria para dispositivos legacy), sin margen de redundancia y asumiendo una distribución perfectamente homogénea de los clientes, algo que en la realidad nunca ocurre. En las keynotes, por ejemplo, la densidad de dispositivos se dispara en una zona muy concentrada. En los pasillos durante las pausas para café, la distribución cambia completamente.
Por eso más de 300 puntos de acceso no es un exceso. Es el dimensionamiento correcto para dar servicio real —no teórico— a esta cantidad de dispositivos concurrentes.
Planificación de canales y gestión del espectro
Desplegar 200 puntos de acceso en un recinto cerrado sin una planificación de canales meticulosa sería una receta para el desastre. Si dos APs adyacentes emiten en el mismo canal, se generan interferencias co-canal que degradan el rendimiento de ambos. Y cuando tienes cientos de APs, las posibilidades de interferencia se multiplican exponencialmente.
La planificación de canales en la banda de 5 GHz ofrece más margen de maniobra que la de 2.4 GHz gracias a su mayor número de canales no solapados. Aun así, con más de 300 APs, la asignación de canales requirió un trabajo previo de ingeniería RF (radiofrecuencia) donde se modeló la propagación de señal en cada zona del recinto, se establecieron niveles de potencia específicos para cada AP y se configuraron políticas de asignación dinámica de canales para que el sistema pudiera reoptimizarse en tiempo real en función de las condiciones cambiantes.
Reducir la potencia de transmisión de cada AP fue una decisión de diseño deliberada. En entornos de alta densidad, menos potencia significa celdas más pequeñas, lo que permite reutilizar los mismos canales con mayor frecuencia sin generar interferencias. Parece contraintuitivo — ¿por qué querrías que tus APs emitan con menos fuerza? — pero es exactamente lo que permite escalar a miles de clientes simultáneos.
El backbone: 10 Gbps redundantes que sostenían todo
Toda la infraestructura inalámbrica del mundo no sirve de nada si el cableado que hay detrás no aguanta. Los puntos de acceso son solo la última milla: la puerta de entrada. Detrás de cada AP hay un cable Ethernet que lleva el tráfico a un switch de distribución, de ahí a un switch de core, y de ahí a la salida a internet. Si cualquiera de esos eslabones se satura o se cae, todo lo que hay por delante deja de funcionar.
Para este despliegue, el backbone de red operaba a 10 Gbps. No como velocidad pico, sino como velocidad base de los enlaces troncales entre switches de core y distribución. Para poner esto en perspectiva: 10 Gbps equivale a poder transmitir más de 1.200 megabytes por segundo. Es una capacidad brutal, pero necesaria cuando tienes más de 7.000 dispositivos generando tráfico simultáneamente.
Pero la velocidad sin redundancia es un castillo de naipes. Por eso toda la topología de red se diseñó en alta redundancia. Cada enlace troncal tenía un camino alternativo. Los switches de core operaban en configuración redundante. Si cualquier componente fallaba — un cable, un switch, un módulo óptico — el tráfico se redirigía automáticamente por la ruta alternativa sin pérdida de servicio. En networking profesional, esto se consigue mediante protocolos de redundancia que permiten failovers en tiempos del orden de milisegundos, completamente imperceptibles para el usuario final.
Segmentación y calidad de servicio
No todos los clientes necesitan lo mismo ni deben recibir el mismo tratamiento por parte de la red. En un evento como este conviven necesidades muy distintas: el asistente que consulta su correo, el ponente que está haciendo una demo en vivo con streaming de su pantalla, el equipo de producción audiovisual que retransmite las keynotes, y los stands de sponsors que necesitan conexiones dedicadas y estables.
La red se segmentó en VLANs (Virtual LANs) para separar estos distintos tipos de tráfico. Cada segmento tenía sus propias políticas de calidad de servicio (QoS), su propio rango de direcciones IP y sus propias reglas de firewall. El tráfico de producción audiovisual, por ejemplo, tenía prioridad absoluta en los switches y en los enlaces troncales, porque un micro-corte en el streaming de una keynote es inaceptable.
La segmentación también tiene una vertiente de seguridad. En un evento con miles de profesionales técnicos, algunos de los cuales podrían estar haciendo pruebas de red (deliberada o inadvertidamente), aislar los segmentos críticos del tráfico general es imprescindible para evitar que una anomalía en la red de asistentes afecte a la producción o a los servicios internos del evento.
Gestión de direccionamiento: el reto oculto del DHCP a gran escala
Uno de los problemas menos visibles pero más críticos en despliegues WiFi de esta magnitud es la gestión del direccionamiento IP. Cada uno de esos 7.000 dispositivos necesita una dirección IP para poder comunicarse. El servicio DHCP (Dynamic Host Configuration Protocol) que asigna esas direcciones tiene que ser capaz de responder a miles de solicitudes en ráfagas — por ejemplo, cuando se abren las puertas por la mañana y varios miles de dispositivos intentan conectarse casi simultáneamente.
Un servidor DHCP mal dimensionado o configurado puede provocar que los dispositivos no obtengan dirección IP, lo que se traduce en que el usuario ve «Conectado, sin internet» — uno de los mensajes más frustrantes que existen. Para evitarlo, los pools de direcciones se diseñaron con amplio margen sobre el máximo de clientes esperado, los tiempos de lease se ajustaron para equilibrar la velocidad de reciclaje de direcciones con la estabilidad de la conexión, y los servidores DHCP se desplegaron en configuración redundante.
También se sobredimensionaron otros componentes de infraestructura de red que a menudo se pasan por alto: las tablas ARP de los switches y routers (que necesitan almacenar las asociaciones IP-MAC de miles de dispositivos), las tablas de forwarding, y las sesiones de NAT/PAT en el firewall perimetral. En un despliegue convencional de oficina, ninguno de estos parámetros es un problema. Con 7.000 clientes concurrentes, cualquiera de ellos puede convertirse en un cuello de botella si no se dimensiona correctamente.
El despliegue físico: cableado, alimentación y logística
Hasta ahora hemos hablado de ingeniería de red, pero hay una realidad física detrás de todo esto que no se puede ignorar. Más de 300 puntos de acceso no se montan solos. Cada AP necesita un cable de red que lo conecte a un switch y, en la mayoría de los casos, ese mismo cable es el que le suministra alimentación eléctrica mediante PoE (Power over Ethernet).
Estamos hablando de literalmente kilómetros de cable Ethernet tendidos por los pabellones de la Fira de Valencia. Cable que hay que pasar por bandejas, canaletas, techos técnicos y estructuras del recinto, respetando la normativa de instalación y asegurando que las tiradas no superen los 100 metros que marca el estándar Ethernet para garantizar la integridad de la señal. En los pabellones más grandes, esto implica desplegar switches de distribución intermedios para acortar las distancias de cableado.
Cada punto de acceso fue instalado en una posición calculada previamente: a la altura correcta, con la orientación adecuada y con el espacio necesario respecto a los APs adyacentes. En zonas de alta densidad como auditorios y salas de keynote, la separación entre APs se redujo deliberadamente para manejar la concentración de dispositivos, bajando la potencia de cada uno para evitar interferencias.
El equipo de instalación trabajó durante varios días antes del inicio del evento, coordinándose con los técnicos del recinto ferial, los responsables de montaje de stands y los equipos de producción audiovisual. Cada cable instalado se etiquetó, cada conexión se testó y cada AP se verificó individualmente antes del encendido general de la red.
Monitorización en tiempo real: pilotar una red de 7.000 clientes
El día que se abren las puertas del congreso, la planificación deja paso a la operación. Y operar una red con más de 7.000 clientes concurrentes requiere visibilidad total y capacidad de reacción inmediata.
Durante todo el evento, el equipo técnico de Enbex mantuvo un centro de operaciones de red (NOC) donde se monitorizaban en tiempo real todos los parámetros críticos: número de clientes asociados por AP, utilización de canales, niveles de interferencia, throughput por segmento, latencia, pérdida de paquetes, estado de los enlaces troncales, temperatura de los switches, carga del servidor DHCP y decenas de métricas adicionales.
Esta monitorización no es un lujo. Es lo que te permite detectar un problema antes de que el usuario lo perciba. Si un AP empieza a acumular más clientes de los deseados, puedes intervenir ajustando parámetros de band steering o redistribuyendo carga. Si un canal empieza a mostrar interferencias por un dispositivo externo (algo frecuente en entornos feriales donde hay otros eventos simultáneos en pabellones adyacentes), puedes forzar un cambio de canal en los APs afectados. Si un switch de distribución muestra una utilización inusualmente alta, puedes investigar si hay un flujo de tráfico anómalo que requiere intervención.
El NOC fue, en esencia, la torre de control de toda la operación. Y funcionó de forma continua durante toda la duración del evento.
El perfil del asistente: por qué este público es el más exigente
Hay un factor que hace que este proyecto sea particularmente desafiante y que merece una mención específica: el perfil del usuario final.
En un congreso de moda o de gastronomía, los asistentes usan el WiFi para consultar el correo, navegar por redes sociales y poco más. Si la conexión tiene un pequeño hipo, la mayoría no lo nota o lo atribuye a su propio dispositivo.
En un congreso mundial de Linux, los asistentes son ingenieros de red, desarrolladores de kernel, administradores de sistemas y arquitectos de infraestructura cloud. Son personas que, si notan que la latencia sube de 10 a 30 milisegundos, abren un terminal y hacen ping al gateway. Si el DNS tarda 200 milisegundos en resolver, ejecutan un nslookup para diagnosticarlo. Si detectan un cambio de canal en su AP, lo comentan en Twitter.
Este nivel de escrutinio técnico por parte de los usuarios convierte cualquier pequeña imperfección en algo visible. No hay donde esconderse. El WiFi funciona impecablemente o todo el mundo lo sabe. Esto elevó el listón de exigencia en cada decisión de diseño, desde la selección del hardware hasta la configuración de los tiempos de roaming entre APs.
Conectividad cableada: 300 conexiones dedicadas
Además de los más de 7.000 clientes WiFi, el evento requería 300 conexiones Ethernet cableadas para sponsors, zonas de demostración, áreas de prensa, equipos de producción, streaming y servicios internos de la organización.
Cada una de estas conexiones fue provisionada como un servicio dedicado con parámetros específicos: VLAN asignada, velocidad del puerto (la mayoría a 1 Gbps), políticas de QoS y, en los casos que lo requerían, direccionamiento IP público para demos o servicios que necesitaban ser accesibles desde internet.
La gestión de estas 300 conexiones cableadas implicó un trabajo de documentación importante. Cada toma estaba mapeada a un puerto de switch específico, con su VLAN, su identificador y su ubicación física. Esto permitía que, si un sponsor reportaba un problema de conectividad, el equipo de soporte pudiera identificar en segundos exactamente qué puerto de qué switch estaba afectado y actuar sin necesidad de desplazarse físicamente al punto del problema.
Resultado: conectividad transparente para miles de profesionales
El éxito de un despliegue de red de esta magnitud se mide de una forma paradójicamente simple: que nadie hable de ello. Cuando la red funciona bien, el WiFi es invisible. Los asistentes se conectan, trabajan, hacen demos, ven streams y se comunican sin pensar ni un segundo en la infraestructura que lo hace posible. Cuando la red falla, es lo único de lo que habla la gente.
Durante toda la duración del evento, la red proporcionó servicio estable y de alto rendimiento a más de 7.000 dispositivos concurrentes. Las keynotes se retransmitieron sin interrupciones. Los sponsors ejecutaron sus demos sin problemas de conectividad. Las salas de conferencias mantuvieron cobertura completa incluso en las sesiones más concurridas. Y los 300 clientes cableados recibieron el servicio dedicado que se les había prometido.
Para Enbex, este proyecto representa uno de los despliegues WiFi de mayor escala y complejidad técnica de nuestro portfolio. No solo por los números —que son impresionantes por sí solos—, sino por el nivel de ingeniería, planificación y ejecución que requirió hacer que todo funcionase de forma transparente ante un público que, por definición, es el más difícil de satisfacer.
Los proyectos de infraestructura de red para grandes eventos no perdonan. No hay un «arreglar después» ni un «ya lo mejoraremos en la siguiente versión». La red tiene que funcionar desde el minuto uno. Y en la Fira de Valencia, con miles de profesionales de Linux dependiendo de ella, funcionó.
Ficha técnica del despliegue
Evento: Edición europea del Congreso Mundial de Linux — Fira de Valencia.
Clientes WiFi concurrentes: Más de 7.000 dispositivos simultáneos.
Clientes cableados: 300 conexiones Ethernet dedicadas para sponsors, producción y servicios.
Puntos de acceso: Más de 300 APs WiFi de última generación, con planificación de canales individualizada y gestión centralizada.
Backbone de red: 10 Gbps en alta redundancia con failover automático.
Segmentación: Múltiples VLANs con políticas de QoS diferenciadas por tipo de tráfico.
Operación: Centro de operaciones de red (NOC) activo durante todo el evento con monitorización en tiempo real.
Resultado: Conectividad estable e ininterrumpida durante toda la duración del congreso.
¿Necesitas una solución de conectividad profesional para un evento de gran formato? Contacta con Enbex y diseñamos la infraestructura que tu evento necesita.