
La solución a los cuellos de botella no reside en adquirir la última tecnología WiFi, sino en una ingeniería de red que trate su infraestructura como una inversión estratégica a largo plazo.
- El rendimiento de la red depende más de la arquitectura y la organización lógica (VLANs, QoS) que de la velocidad nominal de los componentes.
- La organización física del cableado y los racks impacta directamente en los tiempos de respuesta ante incidentes (MTTR) y, por tanto, en los costes operativos.
Recomendación: Abordar el diseño de la red no como un gasto, sino como una estrategia proactiva para eliminar la futura « deuda técnica » y garantizar la escalabilidad del negocio.
Son las tres de la tarde. El equipo directivo está en una videoconferencia crucial, el departamento de marketing lanza una campaña en redes sociales y, de repente, la red se colapsa. Las llamadas se entrecortan, las descargas se eternizan y la productividad cae en picado. Este escenario es el síntoma de un problema mucho más profundo que una simple « mala señal WiFi ». Es la manifestación de una infraestructura de red que no fue dimensionada estratégicamente, sino que creció de forma reactiva.
La reacción instintiva suele ser culpar a los equipos o proponer una actualización de los puntos de acceso como solución mágica. Sin embargo, en la mayoría de los casos, esto es solo un parche temporal. El verdadero desafío para un CTO o responsable de IT no es comprar más rápido, sino diseñar de forma más inteligente. Se trata de anticipar la carga, no solo contar los dispositivos conectados hoy, y de construir una base sólida que soporte las demandas de mañana, ya sean aplicaciones de realidad aumentada, un despliegue masivo de sensores IoT o el simple hecho de que cada empleado conecte tres dispositivos en lugar de uno.
Pero, ¿y si el problema no fuera la potencia de los componentes individuales, sino la arquitectura fundamental que los conecta? Este artículo aborda el dimensionamiento de redes no como una tarea de compra, sino como un ejercicio de ingeniería de resiliencia. El objetivo es dejar de apagar incendios y empezar a construir un sistema nervioso central para la empresa: una infraestructura robusta, escalable y, sobre todo, predecible. Analizaremos cómo cada decisión, desde la categoría del cable hasta la organización del rack, es una inversión en el rendimiento futuro y en la reducción de los costes operativos.
A lo largo de este análisis, exploraremos los puntos críticos que definen la robustez de una red empresarial. Desde la gestión de la densidad de dispositivos hasta la correcta planificación del cableado y la seguridad del acceso remoto, cada sección ofrece una perspectiva técnica y estratégica para construir una infraestructura a prueba de futuro.
Índice de contenidos: Guía de diseño de infraestructura de red
- ¿Por qué su red WiFi se cae cuando todos conectan sus móviles personales además de los portátiles?
- ¿Cómo organizar el rack de comunicaciones para reducir tiempos de reparación en un 50%?
- Cableado Cat6a o Cat7: ¿Cómo seleccionar el estándar correcto para los próximos 10 años?
- El error de pasar cables de datos junto a líneas eléctricas de alta tensión
- ¿Dónde colocar los puntos de acceso WiFi para eliminar las « zonas muertas » en las esquinas?
- Voz sobre IP vs. Línea tradicional: ¿cómo garantizar la nitidez de la llamada sin cortes?
- TeamViewer o VPN corporativa: ¿qué herramienta ofrece control sin abrir brechas de seguridad?
- ¿Cómo configurar un cuarto de servidores seguro en su propia oficina para datos ultra-sensibles?
¿Por qué su red WiFi se cae cuando todos conectan sus móviles personales además de los portátiles?
El colapso de una red WiFi en horas punta rara vez es un problema de ancho de banda total. Es un problema de densidad y gestión de conexiones simultáneas. Las redes tradicionales operan como una conversación en la que solo una persona puede hablar a la vez. Cuando decenas de dispositivos (portátiles, móviles corporativos, smartphones personales, relojes inteligentes) intentan comunicarse simultáneamente, el resultado es el caos: latencia elevada, pérdida de paquetes y la temida caída de conexión. Este fenómeno se agrava con la rápida evolución tecnológica; de hecho, la adopción de WiFi 7 es 3 veces más rápida que las transiciones anteriores, lo que significa que la cantidad y capacidad de los dispositivos conectados crecerá exponencialmente.
La solución no es simplemente instalar más puntos de acceso (APs), lo que a menudo puede empeorar la situación al generar más interferencias. La solución de ingeniería es implementar tecnologías diseñadas para entornos de alta densidad. El estándar WiFi 6 (802.11ax) introdujo una tecnología clave: OFDMA (Orthogonal Frequency-Division Multiple Access). A diferencia de los sistemas anteriores, OFDMA permite que un punto de acceso se comunique con múltiples dispositivos al mismo tiempo dentro del mismo canal, dividiéndolo en subcanales más pequeños. Es el equivalente a pasar de un único carril a una autopista de múltiples carriles, donde cada vehículo (dispositivo) tiene su propio espacio.
Para un CTO, la implementación va más allá de comprar APs compatibles. Implica una reconfiguración estratégica de la red. Esto incluye la segmentación mediante VLANs, creando una red para invitados y dispositivos personales y otra para los equipos corporativos críticos. Además, la configuración de políticas de Calidad de Servicio (QoS) es fundamental para priorizar el tráfico sensible, como las videollamadas o la VoIP, sobre las actualizaciones de software o la navegación web menos urgente. Esta combinación de hardware moderno y configuración inteligente es lo que transforma una red congestionada en una autopista de datos eficiente.
¿Cómo organizar el rack de comunicaciones para reducir tiempos de reparación en un 50%?
Un rack de comunicaciones desordenado, a menudo llamado « nido de espaguetis », es mucho más que un problema estético. Es una bomba de relojería operativa y un sumidero de costes. Cada minuto que un técnico pasa desenredando cables para identificar una conexión defectuosa es un minuto de inactividad para un usuario o un departamento entero. Una organización meticulosa del rack no es un lujo; es una estrategia fundamental para reducir el Tiempo Medio de Reparación (MTTR) y aumentar la resiliencia del sistema. El objetivo es que cualquier técnico, incluso uno que no esté familiarizado con la instalación, pueda diagnosticar y solucionar un problema de forma rápida e intuitiva.
La clave reside en la estandarización y la lógica visual. Esto se consigue mediante varias técnicas: el uso de paneles de parcheo (patch panels) para centralizar las conexiones, la gestión de cables horizontal y vertical para guiar los latiguillos de forma ordenada, y un sistema de código de colores. Por ejemplo: azul para datos de usuario, rojo para infraestructura crítica (servidores, switches), amarillo para VoIP y verde para conexiones a puntos de acceso WiFi. Esta simple medida elimina las conjeturas y acelera drásticamente el diagnóstico.

Desde una perspectiva de arquitectura, la elección entre una metodología Top-of-Rack (ToR) o End-of-Row (EoR) es una decisión estratégica con implicaciones directas en la gestión y escalabilidad. Mientras que EoR centraliza los switches, lo que puede simplificar la gestión inicial, a menudo conduce a tendidos de cable más largos y complejos. ToR, en cambio, coloca un switch en cada rack, minimizando la longitud de los cables y facilitando una escalabilidad modular. Como muestra el siguiente análisis, la inversión inicial ligeramente mayor en switches para una arquitectura ToR se amortiza rápidamente con menores tiempos de reparación y una gestión del flujo de aire más eficiente.
Este cuadro comparativo, basado en un análisis de metodologías de cableado estructurado, ilustra las diferencias clave.
| Característica | Top-of-Rack (ToR) | End-of-Row (EoR) |
|---|---|---|
| Longitud de cables | Cables cortos (1-3 metros) | Cables largos (hasta 30 metros) |
| Tiempo de reparación | 2-5 minutos por cambio | 15-30 minutos por cambio |
| Organización visual | Excelente – Todo contenido en rack | Compleja – Cables cruzan múltiples racks |
| Costo inicial | Mayor (más switches) | Menor (switches centralizados) |
| Escalabilidad | Alta – Agregar racks independientes | Media – Limitada por switch central |
| Gestión de aire | Óptima – Menos obstrucción | Regular – Cables pueden bloquear flujo |
Cableado Cat6a o Cat7: ¿Cómo seleccionar el estándar correcto para los próximos 10 años?
La elección del cableado estructurado es una de las decisiones de infraestructura con mayor impacto a largo plazo. Es la columna vertebral de la red, y una elección subóptima hoy generará una « deuda técnica » que limitará el crecimiento y forzará una costosa reinstalación en el futuro. Mientras que el cable Cat5e o Cat6 puede ser suficiente para las necesidades actuales de 1 Gbps, no ofrece margen para la evolución. La pregunta estratégica no es « ¿qué necesito hoy? », sino « ¿qué necesitaré en cinco o diez años? ». Con la proliferación de la transferencia de grandes archivos, la videoconferencia en 4K/8K y las aplicaciones de IoT, la capacidad de 10 Gbps se está convirtiendo rápidamente en el nuevo estándar para las estaciones de trabajo.
En este contexto, el estándar Cat6a (Categoría 6 Aumentada) se ha consolidado como la opción más equilibrada y estratégica para las nuevas instalaciones empresariales. Ofrece un rendimiento garantizado de 10 Gbps hasta 100 metros, un blindaje superior contra la diafonía (crosstalk) y es el estándar dominante en el mercado, como lo confirma el hecho de que el mercado global de cableado estructurado alcanzó USD 12.7 mil millones en 2024, con Cat6A como la categoría preferida. Aunque Cat7 y Cat8 ofrecen velocidades teóricas superiores, su uso es más específico para centros de datos y a menudo requieren conectores no estándar (GG45), lo que complica la compatibilidad y eleva los costes.
Como bien lo expresa un experto en el sector, este cambio de paradigma es fundamental para la planificación a largo plazo. Como subraya Jesús Alexander Gutiérrez, Regional Presales Engineer de Nexxt Solutions Infraestructura, en una discusión sobre la migración estratégica:
La migración a un cableado Cat 6A no es un gasto, sino una inversión estratégica. Al apostar por esta categoría, una empresa se asegura de contar con una infraestructura robusta y escalable que no solo soporta las demandas actuales de velocidad y ancho de banda, sino que también está preparada para las nuevas tecnologías.
– Jesús Alexander Gutiérrez, Regional Presales Engineer de Nexxt Solutions Infraestructura
Esta perspectiva es crucial. Optar por Cat6a hoy es garantizar que la infraestructura física no se convierta en un cuello de botella mañana, permitiendo futuras actualizaciones de switches y puntos de acceso sin tener que tocar la parte más disruptiva y costosa de la instalación: los cables que recorren las paredes y techos del edificio. Es la base sobre la que se construirá toda la capacidad tecnológica de la empresa en la próxima década.
El error de pasar cables de datos junto a líneas eléctricas de alta tensión
Uno de los errores más comunes y costosos en la planificación de una infraestructura de red es ignorar la interferencia electromagnética (EMI). Pasar cables de datos (cobre UTP/STP) en paralelo y muy cerca de cables de alimentación eléctrica, especialmente los de alta tensión o los que alimentan motores y luminarias fluorescentes, es la receta para un desastre silencioso. La EMI generada por los cables eléctricos induce un « ruido » en los cables de datos, lo que provoca una degradación de la señal que se manifiesta en errores de paquete (CRC errors), retransmisiones constantes y una drástica reducción del rendimiento real de la red. En el peor de los casos, puede provocar la caída intermitente de las conexiones, un problema increíblemente difícil de diagnosticar si no se considera la EMI como causa raíz.
Las normativas de cableado estructurado, como las de la TIA/EIA, establecen directrices claras para evitar este problema. La regla fundamental es la separación física. Los cables de datos y los eléctricos deben tenderse por canaletas o bandejas separadas. La distancia de separación depende del voltaje de la línea eléctrica y del tipo de cableado de datos (apantallado o no apantallado).

Aunque el uso de cable apantallado (STP/FTP) puede mitigar parte de la interferencia, no es una solución mágica y requiere una correcta puesta a tierra en ambos extremos para ser efectivo, lo que añade complejidad y coste. La estrategia más robusta y rentable es siempre planificar las rutas de cableado para mantener una separación adecuada desde el diseño inicial. Cuando el cruce es inevitable, debe hacerse en un ángulo de 90 grados para minimizar la longitud de la exposición a la interferencia. Ignorar estas reglas básicas de la física es sembrar la red de problemas latentes que aparecerán en los momentos de mayor carga y serán una fuente constante de frustración y pérdida de rendimiento.
Plan de acción: Puntos de control para evitar la interferencia electromagnética (EMI)
- Mantener una separación mínima de 20 cm entre cables de datos y cables eléctricos de bajo voltaje (hasta 220V).
- Aumentar la distancia de separación a un mínimo de 60 cm al pasar cerca de líneas de alta tensión o grandes balastros de luminarias fluorescentes.
- Cuando un cruce sea inevitable, asegurarse de que los cables de datos y los eléctricos se crucen perpendicularmente (en un ángulo de 90 grados).
- Utilizar cableado apantallado (FTP/STP) únicamente en entornos de alta EMI, garantizando una correcta conexión a tierra en ambos extremos del enlace.
- Monitorear activamente los puertos de los switches en busca de un aumento en los errores de CRC (Cyclic Redundancy Check), un indicador clave de problemas de integridad de la señal por EMI.
¿Dónde colocar los puntos de acceso WiFi para eliminar las « zonas muertas » en las esquinas?
La creencia popular de que una buena cobertura WiFi se logra simplemente « poniendo más antenas » es un error costoso. Una mala ubicación de los puntos de acceso (APs) no solo crea « zonas muertas » donde la señal es débil o inexistente, sino que también puede generar un exceso de interferencia cocanal, donde los APs se « gritan » entre sí, degradando el rendimiento de toda la red. La colocación de APs es una ciencia que depende de la planimetría del edificio, los materiales de construcción (hormigón, cristal, metal) y la densidad de usuarios esperada en cada zona. No se trata de lograr la máxima señal en todas partes, sino la señal óptima y consistente en las áreas de trabajo.
La metodología profesional para determinar la ubicación ideal de los APs es el Wireless Site Survey. Este proceso implica el uso de software especializado y un ingeniero in situ para realizar un análisis predictivo y, posteriormente, una validación física. Primero, se carga el plano de la oficina en el software y se simula la propagación de la señal de diferentes modelos de APs, teniendo en cuenta los obstáculos. Luego, el ingeniero recorre las instalaciones con un equipo de medición para verificar la cobertura real, identificar fuentes de interferencia (como hornos microondas o redes vecinas) y ajustar la ubicación y configuración de los APs. Como se detalla en guías de implementación profesional, un enfoque probado comienza con una inspección integral del sitio para diseñar una solución a medida.
Como regla general, los APs deben montarse en el techo y lo más céntricamente posible al área que se desea cubrir, ya que su patrón de radiación suele ser similar a una dona o un paraguas. Colocarlos en paredes o en esquinas limita drásticamente su alcance efectivo. Además, es crucial planificar para la capacidad, no solo para la cobertura. Un área de alta densidad como una sala de conferencias grande puede requerir un AP dedicado, incluso si ya tiene cobertura de un AP cercano, para poder gestionar la carga de dispositivos simultáneos. Este enfoque metódico garantiza que se aproveche todo el potencial de la tecnología; por ejemplo, según mediciones de rendimiento, la velocidad mediana de WiFi 6 en España supera en más del 54% a la de WiFi 5, un beneficio que solo se materializa con una cobertura bien planificada.
Voz sobre IP vs. Línea tradicional: ¿cómo garantizar la nitidez de la llamada sin cortes?
La migración de la telefonía tradicional a la Voz sobre IP (VoIP) ofrece enormes ventajas en coste y flexibilidad, pero introduce un nuevo conjunto de desafíos técnicos. Mientras que una línea telefónica tradicional es un circuito dedicado con una calidad garantizada, la VoIP compite por los recursos de la red de datos junto con correos electrónicos, transferencias de archivos y streaming de vídeo. Una llamada VoIP no necesita un gran ancho de banda (generalmente menos de 100 kbps), pero es extremadamente sensible a tres factores: la latencia (retraso), el jitter (variación en el retraso) y la pérdida de paquetes. Un jitter superior a 30 milisegundos o una pérdida de paquetes del 1% puede convertir una conversación nítida en un galimatías entrecortado.
Garantizar la calidad de la VoIP requiere tratar su tráfico como un ciudadano de primera clase en la red. Esto se logra mediante la implementación de políticas de Calidad de Servicio (QoS). La técnica más efectiva es la creación de una VLAN (Red de Área Local Virtual) dedicada exclusivamente para el tráfico de voz. Al aislar los teléfonos IP en su propia VLAN, se les puede aplicar una política de QoS específica sin afectar al resto de la red. Los paquetes de voz se marcan con un valor DSCP (Differentiated Services Code Point) de alta prioridad, típicamente ‘EF’ (Expedited Forwarding – 46), que ordena a los switches y routers que procesen estos paquetes antes que cualquier otro tráfico.
El siguiente cuadro resume los requisitos técnicos críticos para una implementación de VoIP exitosa en comparación con una línea tradicional, destacando por qué la configuración de red es esencial.
| Parámetro | VoIP | Línea Tradicional |
|---|---|---|
| Ancho de banda requerido | 80-100 kbps por llamada | 64 kbps fijo |
| Latencia máxima tolerable | < 150 ms | No aplica |
| Jitter máximo | < 30 ms | No aplica |
| Pérdida de paquetes | < 1% | 0% (circuito dedicado) |
| Configuración QoS | Esencial (DSCP EF) | No necesaria |
| Tipo de conexión Internet | Fibra simétrica empresarial | Línea telefónica independiente |
| VLAN dedicada | Altamente recomendada | No aplica |
Sin una configuración de QoS y una VLAN de voz, las llamadas VoIP estarán a merced de la congestión de la red. Una descarga de archivos pesada o un pico de tráfico pueden degradar instantáneamente todas las conversaciones telefónicas de la empresa. La ingeniería de red adecuada es, por tanto, el requisito indispensable para que la VoIP cumpla su promesa de calidad y fiabilidad.
Puntos clave a recordar
- El diseño estratégico y la arquitectura de red son más importantes que la simple adquisición de la última tecnología para garantizar el rendimiento a largo plazo.
- La organización física del cableado y los racks no es una cuestión estética, sino una inversión directa en la reducción de los tiempos de inactividad y los costes operativos.
- La selección de un estándar de cableado como Cat6a es una decisión fundamental que define la capacidad de evolución de la empresa para la próxima década.
TeamViewer o VPN corporativa: ¿qué herramienta ofrece control sin abrir brechas de seguridad?
El acceso remoto es indispensable, pero también uno de los mayores vectores de ataque a las redes corporativas. La elección de la herramienta adecuada depende fundamentalmente del caso de uso y de la filosofía de seguridad de la empresa. Herramientas como TeamViewer se basan en un modelo de acceso a un dispositivo específico; son excelentes para soporte técnico puntual o para controlar un ordenador de forma remota. Su principal ventaja es la facilidad de uso, pero su modelo de seguridad depende de la fortaleza de las contraseñas y de la configuración de la cuenta.
Una VPN (Red Privada Virtual), por otro lado, opera a un nivel diferente. No da acceso a un solo dispositivo, sino que extiende la red corporativa al usuario remoto, permitiéndole acceder a servidores de archivos, impresoras y aplicaciones internas como si estuviera físicamente en la oficina. Esto ofrece un control mucho más amplio, pero también un riesgo mayor. Una VPN mal configurada o comprometida puede dar a un atacante acceso a toda la red interna. La seguridad de una VPN depende de protocolos robustos (como OpenVPN o IKEv2), una autenticación fuerte (idealmente multifactor – MFA) y una segmentación de red adecuada en el lado corporativo.
La tendencia moderna en seguridad de acceso remoto es superar el modelo binario de la VPN tradicional (« dentro » o « fuera » de la red). El enfoque de Zero Trust Network Access (ZTNA) representa la evolución de este paradigma. ZTNA opera bajo el principio de « nunca confiar, siempre verificar », otorgando acceso granular a aplicaciones específicas en lugar de a toda la red. Cada solicitud de acceso es autenticada y autorizada individualmente, reduciendo drásticamente la superficie de ataque. Soluciones de gestión en la nube como las que propone Orbit Consulting Group, especialistas en arquitectura TI, simplifican este despliegue.
Cisco Meraki es una solución cloud de networking que simplifica al máximo el despliegue de WiFi empresarial. Va un paso más allá porque permite administrar de forma integral redes inalámbricas, switching, seguridad y gestión de dispositivos móviles, todo ello de forma centralizada y desde la Nube.
– Orbit Consulting Group, Especialistas en arquitectura TI para pymes
Para un CTO, la decisión no es simplemente « VPN vs. TeamViewer », sino definir una política de acceso remoto escalonada. TeamViewer para soporte IT, VPN para teletrabajadores que necesiten acceso a recursos de red, y planificar una migración progresiva a una arquitectura ZTNA para los datos y aplicaciones más sensibles.
¿Cómo configurar un cuarto de servidores seguro en su propia oficina para datos ultra-sensibles?
Para una empresa que maneja datos ultra-sensibles (financieros, médicos, de propiedad intelectual), depender exclusivamente de servicios en la nube puede no ser una opción. Configurar un cuarto de servidores (o incluso un simple rack seguro) en las propias instalaciones proporciona un control físico total, pero conlleva la responsabilidad de replicar las condiciones de un centro de datos a pequeña escala. La seguridad de este espacio va mucho más allá de una puerta con llave; implica un control ambiental y físico riguroso para garantizar la integridad y disponibilidad de los equipos.
El primer pilar es el control climático. Los servidores generan una cantidad masiva de calor, y el sobrecalentamiento es una de las principales causas de fallo de hardware. Se requiere un sistema de aire acondicionado dedicado y redundante (idealmente N+1) que mantenga una temperatura estable entre 18°C y 24°C y una humedad controlada. Sensores de temperatura y humedad con alertas automáticas son imprescindibles para actuar antes de que ocurra un fallo catastrófico.
El segundo pilar es la continuidad eléctrica. Un Sistema de Alimentación Ininterrumpida (SAI o UPS) de calidad es no negociable. Su capacidad debe calcularse no solo para soportar un corte de luz, sino para proporcionar el tiempo suficiente (mínimo 15 minutos) para que los servidores se apaguen de forma ordenada y automática si el corte se prolonga, evitando la corrupción de datos. El tercer pilar es la seguridad física y contra incendios. El acceso debe estar restringido mediante control biométrico o de tarjeta con un registro de auditoría. En cuanto a la extinción de incendios, los rociadores de agua son el enemigo. Se debe optar por sistemas de agentes limpios (como FM-200 o Novec 1230), que extinguen el fuego sin dañar los equipos electrónicos.
Checklist: Auditoría de seguridad para un cuarto de servidores local
- Instalar un sistema de aire acondicionado dedicado y redundante (N+1) para mantener una temperatura constante entre 18-24°C.
- Implementar sensores de temperatura y humedad conectados a un sistema de monitorización que envíe alertas automáticas por SMS o correo electrónico.
- Calcular el tiempo de autonomía (runtime) del UPS para permitir un apagado seguro de todos los servidores y configurar un software de shutdown automático.
- Verificar la existencia de un sistema de extinción de incendios basado en agentes limpios (ej. Novec 1230) y no en agua.
- Implementar un sistema de control de acceso físico (biométrico o tarjeta) y auditar los registros de entrada y salida mensualmente.
Construir y mantener un cuarto de servidores seguro es una tarea compleja que requiere una inversión significativa en planificación e infraestructura. Sin embargo, para los datos que son el corazón del negocio, es el único modo de garantizar el máximo nivel de control y soberanía.
Para transformar estos principios de ingeniería en una realidad operativa y escalable, el siguiente paso lógico es realizar una auditoría exhaustiva de su infraestructura actual. Este análisis servirá como base para desarrollar una hoja de ruta de modernización que elimine la deuda técnica y prepare a su empresa para los desafíos tecnológicos del futuro.
Preguntas frecuentes sobre diseño y seguridad de redes corporativas
¿Cuándo debo usar VPN en lugar de TeamViewer?
Use VPN cuando necesite acceso completo a recursos de red internos como servidores de archivos, aplicaciones corporativas e impresoras. La VPN es ideal para trabajadores remotos que necesitan funcionar como si estuvieran en la oficina.
¿Qué es Zero Trust Network Access (ZTNA) y cómo mejora la seguridad?
ZTNA es la evolución de las VPN tradicionales. A diferencia de una VPN que da acceso a toda la red, ZTNA otorga acceso granular solo a aplicaciones específicas, autenticando usuario y dispositivo en cada solicitud bajo el principio de ‘nunca confiar, siempre verificar’.
¿Cuáles son los riesgos de seguridad más comunes en acceso remoto?
Los principales riesgos incluyen: VPN mal configuradas que exponen toda la red, uso de contraseñas débiles en herramientas de acceso remoto, falta de autenticación de dos factores (2FA), y dispositivos personales no actualizados accediendo a recursos corporativos.