1. Plomo: La interrupción en curso
En 18 de noviembre de 2025Cloudflare está experimentando un interrupción del sistema que afecta a los servicios de todo el mundo.
Un gran número de sitios web, API y aplicaciones que confían en Cloudflare -desde servicios financieros hasta redes sociales, desde plataformas para desarrolladores hasta herramientas empresariales internas- están sufriendo interrupciones de acceso, fallos de resolución, tiempos de espera de las solicitudes y otros problemas en un breve espacio de tiempo.
Los datos de seguimiento muestran:
- La capacidad de respuesta global de los nodos de borde CDN ha caído más de un 70%;
- Se ha superado brevemente la tasa de fallos de consulta DNS 45%;
- Algunas regiones (entre ellas Norteamérica, Europa y Asia Oriental) experimentaron casi "cortes de acceso global".
Los equipos oficiales de Cloudflare están trabajando en la recuperación, pero este suceso se ha convertido en otra gran crisis de infraestructura para la Internet global de 2025.
No sólo expone el riesgo de concentración de una única plataforma de seguridad y aceleración en la nube, sino que también nos recuerda de nuevo que:
En un mundo en red cada vez más interconectado, el fallo de cualquier nodo centralizado puede convertirse en el epicentro de una conmoción mundial en Internet.

2. Acontecimientos clave en 2025: Una serie de choques infraestructurales
El año 2025 no es un año aislado de fracasos, sino un periodo concentrado de riesgo para la arquitectura de Internet.
Entre marzo y noviembre, Cloudflare experimentó tres cortes importantes.
(1) 2025 de marzo: Interrupción del almacenamiento de objetos R2
- Duración: 1 hora 7 minutos
- Alcance: Global 100% fallos de escritura, 35% fallos de lectura
- Consecuencia directa: Múltiples plataformas de desarrollo y bases de datos en la nube con experiencia en escrituras de datos interrumpidas
- Causa técnica: Bloqueo del índice de almacenamiento + fallo del mecanismo de recuperación automática
Información clave: Los errores de configuración en la capa lógica suelen ser más destructivos que los fallos de hardware: son más difíciles de detectar y de recuperar.
(2) Junio de 2025: Incidente en el PCG que desencadena un apagón global en cascada.
- Causa raíz: Fallo global del servicio IAM (Identity and Access Management) de Google Cloud Platform (GCP)
- Cadena en cascada:
- Fallo de GCP IAM → Fallos de autenticación/validación del servicio de Cloudflare.
- Interrupción de Cloudflare → ~20% del tráfico mundial de Internet interrumpido.
- Entre los servicios afectados se incluyen: Cursor, Claude, Spotify, Discord, Snapchat, Supabase, etc.
- Duración: unas dos horas
Naturaleza global: Este incidente ejemplifica los riesgos de las "cadenas de dependencia de plataformas en la nube": un único fallo de IAM evolucionó hasta convertirse en una conmoción de la red mundial en cuestión de horas.
(3) Noviembre de 2025: El apagón en curso
- Manifestaciones:
- Anomalías en la respuesta de los nodos de borde, fallos en las consultas DNS, fallos en las políticas WAF;
- Interrupciones del protocolo de enlace TLS, con interrupción total del tráfico HTTPS en algunas regiones;
- Los servicios API, el almacenamiento de objetos y la sincronización de cachés se ven ampliamente afectados.
- Análisis preliminar:
- Anomalías en la distribución de la configuración del plano de control que provocan bucles de enrutamiento;
- Los mecanismos automáticos de reversión no se activaron a tiempo;
- El sistema global de programación de cargas entró en un "punto muerto de sincronización".
Tendencia: La profundidad y amplitud de este fallo superan con creces los anteriores cortes localizados: es un típico "evento de infraestructura de pila completa".
3. Revisión Histórica: Evolución de las incidencias de Cloudflare (2019-2025)
| Tiempo | Causa principal | Duración | Alcance | Características |
|---|---|---|---|---|
| Julio de 2019 | Regla WAF mal configurada | 30 minutos | Global | Empuje automático erróneo |
| Octubre de 2020 | Anomalía de enrutamiento BGP | Varias horas | Europa, Asia | Secuestro de ruta externa |
| Junio de 2022 | Fallo en la actualización de la topología de la red del centro de datos | 1 hora | 19 nodos principales | Colapso localizado |
| Marzo de 2025 | Bloqueo del almacenamiento de objetos R2 | 1 hora 7 minutos | Global | Fallos completos de escritura |
| Junio de 2025 | Fallo en cascada de GCP IAM | ~2 horas | Global | Mayor dependencia entre nubes |
| Nov 2025 | Fallo de sincronización de la configuración global | En curso | Global | Colapso sistémico multicapa |
Tendencias: Desde 2019 hasta la actualidad, el perfil de riesgo de Cloudflare ha evolucionado claramente desde "errores puntuales" hacia "colapsos sistémicos de la cadena de dependencia."
4. Análisis del impacto: El efecto dominó de la "infraestructura invisible" de Internet
(1) Nivel de empresa
- Interrupción generalizada de los servicios de SaaS, pagos y pasarelas API;
- Comunicaciones de microservicios en arquitecturas nativas de la nube perturbadas;
- La continuidad de la actividad se ve gravemente afectada.
(2) Nivel de usuario final
- Los sitios web y las aplicaciones no se cargan;
- Los errores de resolución DNS provocan estados de "muerte aparente";
- Aumentan los riesgos para la privacidad y la seguridad de los usuarios (debido a retrocesos temporales a nodos no fiables).
(3) A nivel industrial
- Sector financiero: Retrasos en los pagos y mayor porcentaje de pedidos fallidos;
- Servicios de contenidos: Invalidación de la caché CDN e interrupción de la reproducción de vídeo;
- Gobierno y educación: Los portales públicos se vuelven inaccesibles, lo que impide el suministro de información.
Esencia: Una sola interrupción de los servicios básicos puede desencadenar un "efecto dominó" global en la cadena de suministro digital.
5. Causas profundas: Concentración, complejidad y el riesgo agravado de la automatización
| Tipo de riesgo | Manifestación típica | Ejemplo | Problema central |
|---|---|---|---|
| Riesgo de automatización | Las configuraciones erróneas se propagan rápidamente | 2019, 2022, Mar 2025 | Falta de verificación multicapa |
| Riesgo en el plano de control | Fallos de sincronización de IAM / configuración | Jun 2025, Nov 2025 | Incapacidad para aislar los fallos localmente |
| Centralización arquitectónica | Una única plataforma con muchos niveles de servicio | Todos los incidentes | Los fallos puntuales se amplifican |
| Retraso en la monitorización y el desmantelamiento | Detección tardía, recuperación lenta | Múltiples incidentes | Falta de autocuración automatizada |
6. Recomendaciones de defensa sistémica
(1) Redundancia multicapa y arquitectura descentralizada
| Capa | Estrategia | Notas de aplicación |
|---|---|---|
| Capa DNS | Múltiples proveedores en paralelo (Cloudflare + Route 53 + NS1) | Comprobaciones de estado automatizadas y conmutación por error ponderada |
| Capa CDN | Agregación multi-CDN (Cloudflare + Fastly + Akamai) | Direccionamiento dinámico del tráfico Anycast |
| Capa de seguridad | Control dual de WAF en la nube y en local | Evite la exposición total cuando falle el lado de la nube |
| Capa de datos | Redundancia multirregión y multicloud | Copias de seguridad automatizadas y recuperación entre regiones |
(2) Evaluación automatizada de la seguridad y la estabilidad (modelo Penligent)
Herramientas como Penligente se puede utilizar para:
- Simular alta carga y fallos de nodos;
- Detección automática de dependencias y bucles de configuración;
- Identificar los riesgos de acoplamiento con servicios externos en la nube;
- Generar "puntuaciones de resistencia de las infraestructuras" en tiempo real.
Objetivo: Adelantar la detección: habilitar la "defensa predictiva" y las "arquitecturas autovalidadoras".
(3) Ingeniería del caos y observabilidad
- Inyecte periódicamente fallos controlados para validar los procesos de autocuración;
- Construir métricas de observabilidad en tiempo real (latencia, pérdida de paquetes, tasas de interrupción de circuitos);
- Establezca un "panel de resiliencia" para integrar la salud de la infraestructura en los indicadores clave de rendimiento de la empresa.
7. Conclusiones estratégicas: De la "prevención de fallos" a la "prevención del colapso sistémico"
- Gobernanza descentralizada: Reducir la concentración de servicios críticos de Internet.
- Marco de enrutamiento de confianza: Acelerar el despliegue de RPKI y DNSSEC.
- Verificación basada en IA: Utilice el aprendizaje automático para identificar patrones de configuración de riesgo.
- Coaliciones para la recuperación de catástrofes: Cree grupos de recursos para catástrofes que abarquen todas las nubes y todos los sectores.
8. Conclusión: La resistencia es la ventaja competitiva fundamental de Internet
La secuencia de incidentes de Cloudflare en 2025 demuestra que la fragilidad de Internet ya no es un problema de una sola empresa, sino un riesgo estructural para todo el ecosistema digital.
La competencia del futuro no se definirá sólo por la velocidad, sino por la capacidad de recuperarse de los fallos.
Sólo a través de la descentralización, la multiredundancia, la verificación automatizada y la preparación continua ante desastres puede Internet lograr una verdadera "infraestructura autorreparable." Las continuas interrupciones de Cloudflare son más que una crisis técnica: son una advertencia sistémica sobre las arquitecturas centralizadas de Internet. Debemos restablecer la confianza, reconstruir la resistencia y replantearnos la infraestructura fundacional de Internet.
Apéndice: Cronología de las principales interrupciones de Cloudflare (2019-2025)
| Tiempo | Tipo | Causa | Duración | Alcance |
|---|---|---|---|---|
| 2019.07 | Apagón mundial | Error de regla WAF | 30 minutos | Global |
| 2020.10 | Anomalía de BGP | Error de ruta | Varias horas | Europa, Asia |
| 2022.06 | Error de actualización de la topología de red | Fallo de configuración | 1 hora | 19 ciudades |
| 2025.03 | Bloqueo del almacenamiento de objetos R2 | Error de índice | 1 hora 7 minutos | Global |
| 2025.06 | Fallo en cascada del GCP | Anomalía IAM | 2 horas | Global |
| 2025.11 | Colapso de la sincronización global de la configuración | Fallo del plano de control | En curso | Global |
