Cómo configurar Jumbo Frames en Linux

9 min de lectura - 11 de mayo de 2026

hero section cover
Tabla de contenidos
  • Cómo configurar tramas Jumbo en Linux
  • Por qué son importantes las tramas Jumbo
  • Comprobar la compatibilidad del hardware
  • Configurar la MTU en Linux
  • Pruebas y resolución de problemas
  • Conclusión
Compartir

Guía paso a paso para habilitar tramas jumbo en Linux, que incluye comprobaciones de hardware, configuración de MTU persistentes y pruebas de extremo a extremo

Cómo configurar tramas Jumbo en Linux

Las tramas Jumbo son tramas Ethernet con una carga útil mayor que la MTU estándar de 1.500 bytes. Configurar la MTU a 9.000 bytes reduce la sobrecarga por paquete y las interrupciones de la CPU, lo que significa que más ancho de banda se destina a datos reales. Esto es muy importante en las rutas de alto rendimiento, como las interconexiones privadas, los enlaces de replicación de datos entre instalaciones y las redes de almacenamiento dedicadas. Esta guía incluye comprobaciones de hardware, configuración de las principales distribuciones y pruebas.

Por qué son importantes las tramas Jumbo

Cada trama Ethernet lleva una cabecera de 18 bytes, independientemente del tamaño de la carga útil. Con una MTU de 1.500 bytes, esa sobrecarga representa aproximadamente el 1,2% de su tráfico. Aumente la MTU a 9.000 y la sobrecarga se reducirá a aproximadamente el 0,2%. Menos paquetes significa también menos interrupciones de la CPU, lo que libera ciclos para el trabajo real de las aplicaciones.

En la práctica, las LAN de alto rendimiento mejoran el rendimiento entre un 5% y un 10%. Las redes de almacenamiento dedicadas (iSCSI, NFS) suelen mejorar entre un 10% y un 30%. Los clusters de GPU que ejecutan cargas de trabajo de IA/ML también se benefician, ya que los grandes conjuntos de datos se mueven entre nodos con menos segmentación. Se suele recomendar una MTU de 8.896 para entornos acelerados por GPU.

El truco: las tramas jumbo sólo funcionan en rutas que controlas totalmente. Todos los dispositivos entre el origen y el destino, incluidas las tarjetas de red, los conmutadores y los enrutadores, deben admitir la MTU más grande. Un salto mal configurado y se produce fragmentación o caídas silenciosas de paquetes. Para las interfaces orientadas a Internet, utilice 1.500.

Comprobar la compatibilidad del hardware

Antes de cambiar nada, confirme que todos los dispositivos de su red son compatibles con tramas Jumbo.

Compruebe su configuración actual de MTU:

ip link show | grep mtu

Compruebe si su NIC acepta una MTU mayor:

sudo ip link set eth0 mtu 9001

Si obtiene SIOCSIFMTU: Invalid argument, la NIC no admite tramas jumbo. También puede comprobar las capacidades de descarga con:

ethtool -k eth0 | grep -i large

La configuración del conmutador también es importante. Los distintos proveedores requieren valores de MTU ligeramente diferentes para tener en cuenta las cabeceras de capa 2. Los switches Cisco suelen necesitar 9.000 MTU. Los conmutadores Cisco suelen necesitar 9.216. Los conmutadores Arista utilizan 9.214. Comprueba la documentación de tu conmutador y configúralo en consecuencia.

Si está ejecutando VLANs, el etiquetado VLAN añade 4 bytes de sobrecarga. Una interfaz principal configurada con una MTU de 9.000 admite una MTU de VLAN de 8.996. Si necesita 9.000 en la interfaz VLAN, configure la interfaz principal a 9.004.

Configurar la MTU en Linux

Configure la MTU temporalmente para verificar que las cosas funcionan:

sudo ip link set eth0 mtu 9000
ip link show eth0 | grep mtu

Esto tiene efecto inmediato sin necesidad de reiniciar. Para interfaces enlazadas, configure la MTU en la propia interfaz enlazada. Se propaga a las NICs miembro automáticamente.

Hacerlo persistente

El método depende de su distribución y gestor de red.

Distribución / HerramientaConfig UbicaciónSintaxis
Ubuntu 17.10+(Netplan)/etc/netplan/*.yamlmtu: 9000
NetworkManagernmcli802-3-ethernet.mtu 9000
Debian / Ubuntu antiguo/etc/red/interfacesmtu 9000
systemd-networkd/etc/systemd/red/*.redMTUBytes=9000 en [Enlace]
RHEL / CentOS (heredado)/etc/sysconfig/network-scripts/MTU=9000

Para Netplan, use sudo netplan try después de editar. Se aplica la configuración y revierte automáticamente si no se confirma en dos minutos, que es una red de seguridad útil en servidores remotos. Para NetworkManager, ejecute:

nmcli connection modify "Eth0" 802-3-ethernet.mtu 9000
nmcli connection up "Eth0"

Después de hacer los cambios persistentes, reinicie y verifique con ip link show para confirmar que la MTU ha sobrevivido.

Pruebas y resolución de problemas

Un servidor configurado para MTU 9.000 puede fallar en transferencias grandes si algún dispositivo de la ruta no coincide. Los paquetes pequeños pueden funcionar bien mientras que los grandes se descartan silenciosamente. Pruebe siempre de extremo a extremo.

Comprobación de la compatibilidad con tramas Jumbo

Envíe un paquete de tamaño completo con la fragmentación desactivada:

ping -M do -s 8972 <destination_ip>

El tamaño de la carga útil de 8.972 tiene en cuenta las cabeceras IP e ICMP de 28 bytes. Si el ping tiene éxito, la ruta completa soporta MTU 9.000. Si aparece el mensaje "El paquete necesita fragmentarse pero DF está configurado" o "Mensaje demasiado largo", algo en la ruta tiene una MTU inferior.

Para encontrar exactamente dónde se rompe la ruta:

tracepath -n <destination_ip>

Informa de la MTU máxima en cada salto, para que pueda identificar qué dispositivo necesita reconfigurarse.

Medición del rendimiento

Utilice iperf3 para comparar el rendimiento antes y después:

iperf3 -c <destination_ip> -t 30 -M 8960

Ejecute primero la misma prueba con la MTU por defecto y, a continuación, después de activar las tramas jumbo. Debería ver una mejora medible en el rendimiento y un menor uso de la CPU en cargas de trabajo de almacenamiento pesado.

Para confirmar que los paquetes llegan intactos durante las transferencias reales, compruebe los contadores de reensamblado en el extremo receptor:

nstat -az IpReasm*

Si los contadores permanecen a cero, no se está produciendo fragmentación.

Problemas comunes

  • Desajuste de MTU: El problema más común. Todos los dispositivos de la ruta necesitan la misma MTU (o superior). Un puerto de switch configurado a 1.500 lo romperá todo.
  • Se olvida la sobrecarga de la VLAN: El etiquetado VLAN añade 4 bytes. Si su interfaz VLAN necesita MTU 9.000, configure el padre a 9.004.
  • MTU de enlace en los miembros: Establezca siempre la MTU en la interfaz de enlace, no en las NIC individuales.
  • Limitación de hardware NIC: Algunas NIC antiguas tienen un límite por debajo de 9.000. Ejecute ethtool -k <interfaz> | grep -i large para comprobarlo.

Conclusión

Las tramas Jumbo son una forma sencilla de mejorar el rendimiento y reducir la sobrecarga de la CPU en las redes internas. La configuración en sí es sencilla. Lo difícil es asegurarse de que todos los dispositivos de la ruta admiten una MTU mayor, por lo que las pruebas son más importantes que el paso de configuración.

Utilice tramas jumbo para redes de almacenamiento, migraciones de máquinas virtuales, copias de seguridad y cualquier tráfico interno de gran ancho de banda en el que controle toda la ruta. Deje las interfaces orientadas a Internet con la MTU estándar de 1.500 bytes.

La infraestructura de servidores dedicados y VPS de FDC admite tramas jumbo en VLAN privadas, lo que la convierte en una buena opción para estas cargas de trabajo.

background image
¿Su servidor está frenando su crecimiento?

¿Cansado de despliegues lentos o límites de ancho de banda? FDC Servers ofrece potencia dedicada instantánea, alcance global y planes flexibles diseñados para cualquier escala. ¿Listo para actualizar?

Libere el rendimiento ahora

Blog

Destacados de la semana

Más artículos
Lista de comprobación para el refuerzo de servidores Linux

Lista de comprobación para el refuerzo de servidores Linux

Lista de comprobación paso a paso para reforzar un servidor Linux. Cubre SSH, cortafuegos, parches, permisos de archivos, SELinux/AppArmor y registro de auditorías

15 min de lectura - 8 de mayo de 2026

tutorial de iperf3: Prueba de velocidad de red en Linux y Windows

10 min de lectura - 7 de mayo de 2026

Más artículos