本文发表在 rolia.net 枫下论坛1. 端对端latency. 需要的是在正常业务时间内的平均delay; (round trip)
我们测试ping的response是40ms, 现在测试阶段只有这两台AIX服务器使用这条专线。其他的机器测试的latency也是一样的。
2. TCP window size
两个机器的发送和接收的window size 均设置为512KB, 我试过使用1MB,效果差不多。
3. MTU
MPLS Tunnel的MTU为1476 bytes, AIX上手工设置为1400。网管做过trace (Ethereal),说在此设置下没有看到fragmentation. 而且不可以使用jumbo packets (大MTU,例如9000).
4. MSS
我们使用iperf测试到的MSS是MTU-52,即1348 bytes。
下面是修改AIX TCP的参数script:
#!/usr/bin/ksh
no -D
no -o rfc1323=1
no -o tcp_sendspace=524288
no -o tcp_recvspace=524288
no -o tcp_pmtu_discover=0
no -o tcp_nodelayack=0
no -o delayack=3
no -o delayackports={5001,21}
no -o rto_length=6
route delete 10.155.15.92 192.168.158.246
route add 10.155.15.92 192.168.158.246 -mtu 1400
ifconfig en5 tcp_recvspace 524288 tcp_sendspace 524288 tcp_nodelay 0 rfc1323 1
ifconfig en5
stopsrc -s inetd; startsrc -s inetd
也试过ifconfig en5 thread, 效果也是一样。AIX 有两颗CPU,而且都特别闲置。
多谢你的有关Window Size的计算方法。我的window size 应该设到多少合适?更多精彩文章及讨论,请光临枫下论坛 rolia.net
我们测试ping的response是40ms, 现在测试阶段只有这两台AIX服务器使用这条专线。其他的机器测试的latency也是一样的。
2. TCP window size
两个机器的发送和接收的window size 均设置为512KB, 我试过使用1MB,效果差不多。
3. MTU
MPLS Tunnel的MTU为1476 bytes, AIX上手工设置为1400。网管做过trace (Ethereal),说在此设置下没有看到fragmentation. 而且不可以使用jumbo packets (大MTU,例如9000).
4. MSS
我们使用iperf测试到的MSS是MTU-52,即1348 bytes。
下面是修改AIX TCP的参数script:
#!/usr/bin/ksh
no -D
no -o rfc1323=1
no -o tcp_sendspace=524288
no -o tcp_recvspace=524288
no -o tcp_pmtu_discover=0
no -o tcp_nodelayack=0
no -o delayack=3
no -o delayackports={5001,21}
no -o rto_length=6
route delete 10.155.15.92 192.168.158.246
route add 10.155.15.92 192.168.158.246 -mtu 1400
ifconfig en5 tcp_recvspace 524288 tcp_sendspace 524288 tcp_nodelay 0 rfc1323 1
ifconfig en5
stopsrc -s inetd; startsrc -s inetd
也试过ifconfig en5 thread, 效果也是一样。AIX 有两颗CPU,而且都特别闲置。
多谢你的有关Window Size的计算方法。我的window size 应该设到多少合适?更多精彩文章及讨论,请光临枫下论坛 rolia.net