allient

allient

V2EX member #214866, joined on 2017-02-13 17:51:17 +08:00
allient's recent replies
@linhua 你好
沒有 最近有點時間了
終於可以開始看 user space 的 TCP stack 之類
有好玩的可以跟我講

我是剛剛和別人聊到 LKL
有人大力向我推薦 "100 變 200 之類"
後來有人覺得我不懂事
就叫我來這個帖

其實 LKL 可以越來越好
還是有各個人願意再研究
不過看到 "100 變 200"
覺得還是要澄清一下

--
@kuoruan
還有就是日誌功能很重要的
先不要亂删掉了
Apr 21, 2017
Replied to a topic by yt1988 全球工单系统 醒目提醒大家谨慎购买 Nya-VM 产品
@yt1988 之前買了一台 SJC 的
也是有點失望了
本身想把這個用來實驗新的 TCP congestion control 的 (茶
簡單來說
如果是 server 要跑 50 Mbps 的話
1 vCPU 用 LKL 也不會有問題
如果 client 這邊的 bandwidth 比 50Mbps
也就勸你不要用 OVZ 了
多個 core 的話 LKL 比 UML 好

UML 本身沒有 SMP
UML 沒有 optimize
跑 SS/SSR 的話
效率上到 100 Mbps 左右 就差不多了
UML + haproxy 會再高一點

以下是大概比較

test environment:
server, client:
vultr Frankfurt
40USD
8G RAM
4 vCPU
speedtest node: sponsor="Interoute VDC" id="10268" at New York
SSR setting (aes-128-cfb, auth_aes128_md5, plain)

haproxy - LKL (SSR)
download
185Mbps
cpu usage haproxy: 117%
cpu usage python: 50%
upload
50Mbps
cpu usage haproxy: 40%
cpu usage python: 20%

python SSR - LKL
download
140Mbps
cpu usage python: 149%
upload
24Mbps
cpu usage python: 42%

SSR native
download
cpu usage: 92%
450Mbps
upload
cpu usage: 30%
60Mbps

LKL 和 UML 的 bottleneck 是 CPU
LKL 也會被封的
特別是 LKL 吃 CPU 也不是一般的少
--

在 KVM 也爛大街的時代
如果可以的話
就用上 KVM 吧
About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   2391 Online   Highest 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 12ms · UTC 10:22 · PVG 18:22 · LAX 03:22 · JFK 06:22
♥ Do have faith in what you're doing.