Professional Documents
Culture Documents
CFD性能怪兽之双机并联
CFD性能怪兽之双机并联
1000核CFD服务器之旅
如何尽可能的榨干服务器的性能?
自从我做单机塔式服务器之后,一直在思考这个问题。2021年春节的时候,就想启动机架式服务器业
务。但是由于时间问题,一直卡在技术问题上解决不了。我自己也没有时间专门去弄。
过去了一年,2022年春节,我们再次启动这个事情。春节真是个好东西,大家都在放假,节日氛围浓
厚,我们可以利用这个时间,好好搞搞技术上这个事情。
要做机架式服务器,最简单的就是从2台机器开始。我的小伙伴在春节期间废寝忘食的研究多节点并联技
术。终于在刻苦奋战了实打实的3星期之后,彻底搞通了:
1. 双机并联: 两台机器,通过网线连接,一起跑算例。等于是双节点。
2. 多机并联: 多台机器,通过交换机连接。也就是机架式服务器。
这其中的坑就不多说了,坑太多,每一个坑都要卡一阵子。虽然小伙子用了近一个月的时间在搞技术问
题。我们还是决定将这部分技术开源。帮助更多的OpenFOAM用户,来玩一玩!感受一下性能巨兽的魅
力!
操作流程
1. 最开始的,准备两台电脑,用网线连起来。
(/assets/uploads/files/1645662736777-ad0c9a59-9375-4fdd-a96e-cbadea4d70d5-image.png)
1 / 1
(/assets/uploads/files/1645662762997-5b2125be-d8b0-45bf-a728-682890bcc1fd-image.png)
3. 两个节点测试是否能够ping通:
(/assets/uploads/files/1645662795624-486a4037-1030-47eb-b0cd-24a670590106-image.png)
(/assets/uploads/files/1645662812607-500c3779-e85b-450b-b731-980a01909489-image.png)
1 / 1
(/assets/uploads/files/1645662885600-e00877a2-1769-499f-8cf4-e616ddaa1e24-image.png)
(/assets/uploads/files/1645663085697-9df2fe14-7877-4b25-b61b-7b7ceadf178d-image.png) 上面
这个图是node1连接node2的,node2连接node1类似。确保没问题。
1 / 1
6. 在node1中通过ssh-keygen生成公钥私钥对。输入 ssh-keygen (键入完一路按回车)
(/assets/uploads/files/1645663182272-4c1fddd4-f27d-47cb-8c75-488500392435-image.png)
7. 通过ssh-copy-id复制node1的公钥到node2,命令见下图第一行:
(/assets/uploads/files/1645663220026-8d98bbb1-f79c-458e-84a2-41b9f7aed741-image.png) 现
在可以键入 ssh node2 发现不用输入密码了,表示成功。
10. 下载过后两个节点均建立共同挂载文件夹(mpicluster):
mkdir mcluster
/home/dyfluid/mcluster *(rw,sync,no_root_squash,no_subtree_check)
1 / 1
(/assets/uploads/files/1645663422262-140424b9-9b3d-4b34-8084-795cdc46f3fe-image.png)
(/assets/uploads/files/1645663662475-09dd9aa3-81a1-405e-a38f-ad44d4e61508-image.png)
14. 测试:在node1下mcluster文件夹中建立文件,在node2的mcluster中也能看见即为挂载成功!
15. 下面建立openmpi并行计算环境。在文件夹中下载of-9和ThirdParty-9,编译,然后在两台节点的
~/.Bashrc 中添加如下两行,将运行环境保证在挂载文件夹里():
source ~/mcluster/OpenFOAM-9/etc/bashrc
(/assets/uploads/files/1645663975170-c8468820-029b-4fb6-9af7-087c55c0558a-image.png)
16. 我们在挂载文件夹mcluster中需要运行的文件夹(这里面我用dambreak)之中放置配置文件,文
件可以任意起名,例如:machines和hostfile,进而去设置调用每一个节点的核数,配置格式如
下:
(/assets/uploads/files/1645664004873-566042c9-3987-408f-bb01-64aa1f6cb2b3-image.png)
17. 分块之后输入并行指令:
1 / 1
mpirun -hostfile machines -n 4 interFoam -parallel
已经可以跑起来了!
(/assets/uploads/files/1645664054441-b8bfc286-27fb-4ebd-8fe7-a409652ba8f9-image.png)
Fluent单机需要跑90秒的,双机并联也可以跑到50秒!
具体的scale性能,跟CFD求解器,mpi并行库,以及硬件网络带宽等都有关系。你们自己连起来之
后,应该有类似的scale特征。
最后
将单塔式服务器,拓展到双机并联、甚至机架式服务器的时候。CFD计算的性能牵涉到太多的因素。现
在我们双机并联的测试基本上已经完事,在频繁的测试多节点机架式服务器。机架式服务器的测试,远
远比单塔式服务器的参数要多。测试起来还真不容易。
本文讨论的双机并联,相对来说硬件需求低,配置相对简单。但软件配置,如果稍有差错,就会连接不
成功。只能祝愿大家尽快出坑了。。
1 / 1