Si no puedes ver bien esta newsletter haz click aquí

"Sin Tiempo para Escribir"

El newsletter de David Carrero

Copy Fail y la falsa sensación de seguridad en nuestros sistemas

Tue, 12 May 2026 04:10:00 +0000

Cada cierto tiempo aparece una vulnerabilidad que obliga a mirar la infraestructura con más humildad. Copy Fail, registrada como CVE-2026-31431, es una de ellas. No porque sea el primer fallo grave del kernel Linux, ni porque Linux deje de ser una base sólida para servidores, cloud, contenedores y sistemas críticos. Lo importante de este caso es lo que nos recuerda: hay muchos más errores esperando a ser descubiertos en capas que usamos todos los días y damos por sentadas.

Copy Fail permite a un usuario local sin privilegios escalar a root mediante un fallo lógico en el subsistema criptográfico del kernel Linux. La vulnerabilidad afecta a kernels derivados de cambios introducidos desde 2017 y se apoya en una interacción delicada entre AF_ALG, splice() y la caché de páginas. En las pruebas publicadas por Theori/Xint Code, una prueba de concepto muy pequeña lograba obtener root en distribuciones ampliamente usadas. CERT-EU la clasificó como una escalada local de privilegios de severidad alta, con una puntuación CVSS 3.1 de 7,8.

No estamos hablando de un ataque remoto que atraviese Internet por sí solo. Hace falta ejecución local o acceso a una cuenta dentro del sistema. Pero en 2026 esa distinción ya no tranquiliza tanto. Muchos servidores ejecutan contenedores, runners de CI/CD, cargas de terceros, entornos multiusuario, paneles de hosting, plataformas SaaS o procesos expuestos a cadenas de ataque más largas. Cuando un atacante consigue entrar con pocos permisos, el siguiente paso casi siempre es buscar una vía para convertirse en root.

Los bugs peligrosos no siempre hacen ruido

Lo más interesante de Copy Fail no es solo su impacto técnico, sino su origen. No parece el típico error burdo que salta a la vista en una revisión superficial. Es el resultado de una combinación de decisiones técnicas que, por separado, podían parecer razonables. Una optimización aquí, una ruta de datos allá, una interacción poco habitual entre subsistemas. Años después, alguien une las piezas y aparece una primitiva de escritura en memoria con consecuencias muy serias.

Esto ocurre más de lo que nos gusta admitir. Los sistemas modernos son demasiado complejos como para pensar que todo lo importante ya ha sido revisado. Linux, OpenSSL, Kubernetes, hipervisores, firmwares, bibliotecas de compresión, sistemas de backup, agentes de monitorización, controladores de red, appliances y plataformas cloud acumulan años de capas, parches, optimizaciones y compatibilidad hacia atrás. La seguridad real no consiste en creer que no hay fallos, sino en asumir que algunos existen y diseñar la infraestructura para resistir cuando se descubran.

Copy Fail tiene además un punto especialmente incómodo: el ataque puede alterar la caché de páginas en memoria sin modificar de forma persistente el archivo en disco. Eso limita la utilidad de algunas herramientas clásicas de integridad basadas en comparar ficheros almacenados. Cloudflare, por ejemplo, explicó que podía detectar patrones de explotación mediante señales de comportamiento, pero ese tipo de respuesta exige visibilidad, telemetría y equipos preparados.

El caso también es relevante para contenedores. La caché de páginas se comparte a nivel de host, así que un contenedor comprometido puede convertirse en una vía para afectar al nodo completo si el kernel es vulnerable. Esta idea debería estar siempre presente en arquitecturas cloud, Docker y Kubernetes: un contenedor no es una máquina virtual. Aísla mucho, pero no convierte el kernel compartido en una frontera infranqueable.

La Inteligencia Artificial ayuda, también a encontrar lo que no vemos

Theori explicó que el hallazgo fue asistido por Xint Code, su herramienta de análisis con Inteligencia Artificial. Este detalle se ha usado en algunos titulares como si la IA hubiera encontrado sola una vulnerabilidad crítica en una hora. Yo lo leería con más calma. La IA puede acelerar muchísimo la revisión de código, sugerir rutas de análisis, correlacionar patrones y ayudar a mirar zonas que un equipo humano tardaría mucho más en cubrir. Pero sigue haciendo falta criterio experto para orientar la búsqueda, validar el impacto y construir una explotación fiable.

Aun así, el mensaje de fondo es potente. Si la Inteligencia Artificial ayuda a los defensores a encontrar vulnerabilidades, también ayudará a atacantes, brokers de exploits, grupos criminales y equipos ofensivos de Estados. La diferencia estará en quién integra antes estas herramientas en procesos serios: auditoría continua, análisis de dependencias, revisión de código, hardening, detección y respuesta.

Esto no significa que debamos entrar en pánico. Significa que la ciberseguridad ya no puede tratarse como una actividad puntual. No basta con pasar una auditoría anual, instalar un antivirus o aplicar parches cuando “haya ventana”. Los fallos dormidos existen. Algunos llevan años en producción. Otros están en componentes que nadie mira porque funcionan bien desde hace demasiado tiempo.

La respuesta tiene que ser más disciplinada. Inventario real de activos. Parches probados y aplicados con agilidad. Segmentación. Mínimo privilegio. MFA. Monitorización con señales útiles. Gestión de vulnerabilidades. Pruebas de restauración. Copias offline o inmutables. Entornos separados. Reducción de superficie de ataque. Y, sobre todo, una cultura en la que actualizar sistemas críticos no sea una molestia administrativa, sino una tarea central de continuidad de negocio.

Backups, resiliencia y una idea incómoda: el parche no siempre llega a tiempo

Copy Fail también sirve para recordar que el parcheo, por importante que sea, no es suficiente. Siempre habrá una ventana entre el descubrimiento, la publicación, la disponibilidad de paquetes para cada distribución, las pruebas internas y el reinicio de producción. En esa ventana, las defensas por capas marcan la diferencia.

Los backups entran aquí con mucha fuerza. No porque Copy Fail sea una vulnerabilidad pensada para destruir datos, sino porque cualquier escalada a root puede acabar en cifrado, borrado, sabotaje o persistencia. Si un atacante consigue privilegios máximos en un servidor, puede intentar eliminar snapshots, modificar scripts de copia, acceder a credenciales, moverse lateralmente o preparar un ataque posterior. Por eso los backups no deben ser simplemente “copias que existen”. Deben ser copias protegidas, separadas, probadas y recuperables.

En infraestructura profesional, una buena estrategia debería combinar copias frecuentes, retención adecuada, almacenamiento inmutable, separación de credenciales, restauraciones verificadas y escenarios de recuperación documentados. La pregunta no es si tenemos backup. La pregunta es si podríamos recuperar sistemas críticos si el atacante ya hubiera conseguido root en parte de la infraestructura.

También conviene revisar cómo tratamos los entornos de laboratorio, desarrollo y CI/CD. Muchas intrusiones no empiezan en el servidor más crítico, sino en un runner con demasiados permisos, una clave expuesta, una imagen de contenedor vulnerable o un sistema secundario que nadie parchea con la misma prioridad. A partir de ahí, una vulnerabilidad local puede convertirse en escalada, movimiento lateral y compromiso de activos más valiosos.

No hay infraestructura perfecta. Quien prometa seguridad absoluta está vendiendo humo. Lo que sí podemos construir son sistemas más difíciles de comprometer, más fáciles de detectar y más rápidos de recuperar. Copy Fail nos recuerda que incluso una base tan madura como Linux puede esconder fallos profundos durante años. La Inteligencia Artificial hará que encontremos más. Algunos los encontrarán investigadores responsables. Otros no.

La conclusión, para mí, es clara: viene una etapa en la que aparecerán más vulnerabilidades de este tipo, no menos. No porque el software sea peor, sino porque tenemos mejores herramientas para mirar dentro de él. Eso debería empujarnos a invertir más en ciberseguridad, no a confiar ciegamente en que “si algo lleva años funcionando, estará bien”.

Preguntas frecuentes

¿Qué es Copy Fail?
Copy Fail es el nombre de CVE-2026-31431, una vulnerabilidad de escalada local de privilegios en el kernel Linux que afecta al módulo algif_aead del subsistema criptográfico.

¿Por qué es importante si requiere acceso local?
Porque muchos ataques empiezan con permisos limitados. En servidores con contenedores, usuarios, runners de CI/CD o cargas no confiables, una escalada local puede permitir comprometer el nodo completo.

¿La Inteligencia Artificial descubrió la vulnerabilidad?
Theori indicó que el hallazgo fue asistido por su herramienta Xint Code. La IA ayudó en el análisis, pero el criterio humano siguió siendo esencial para orientar, validar y divulgar el fallo.

¿Qué deberían hacer las empresas?
Actualizar kernels, priorizar sistemas con cargas no confiables, aplicar mitigaciones temporales si no pueden parchear, revisar detecciones y reforzar backups inmutables, segmentación, mínimo privilegio y pruebas de recuperación.

Más información : Open Security y Copy fail

La entrada Copy Fail y la falsa sensación de seguridad en nuestros sistemas aparece primero en Carrero.

  
Leer en Carrero.es
LinkedIn

Recibes este boletín porque te has suscrito en Carrero.es

Darme de baja | Modificar mis datos