<html>
<head>
<style>
.hmmessage P
{
margin:0px;
padding:0px
}
body.hmmessage
{
font-size: 10pt;
font-family:Verdana
}
</style>
</head>
<body class='hmmessage'>
Hi,<br><br>Setting -npme 2 is ridicolous.<br>mdrun estimates the number of PME nodes by itself when you do not specify -npme.<br>In most cases you need 1/3 or 1/4 of the nodes doing pme.<br>The default -npme guess of mdrun is usually not bad,<br>but might need to tuned a bit.<br>At the end of the md.log file you find the relative PP/PME load<br>so you can see in which direction you might need to change -npme,<br>if necessary.<br><br>Berk<br><br>&gt; Date: Fri, 9 Jan 2009 18:37:37 -0700<br>&gt; From: nsapay@ucalgary.ca<br>&gt; To: gmx-users@gromacs.org<br>&gt; Subject: Re: [gmx-users] Best performace with 0 core for PME calcuation<br>&gt; <br>&gt; Nicolas a écrit :<br>&gt; &gt; Hello,<br>&gt; &gt;<br>&gt; &gt; I'm trying to do a benchmark with Gromacs 4 on our cluster, but I <br>&gt; &gt; don't completely understand the results I obtain. The system I used is <br>&gt; &gt; a 128 DOPC bilayer hydrated by ~18800 SPC for a total of ~70200 atoms. <br>&gt; &gt; The size of the system is 9.6x9.6x10.1 nm^3. I'm using the following <br>&gt; &gt; parameters:<br>&gt; &gt;<br>&gt; &gt;        * nstlist = 10<br>&gt; &gt;        * rlist = 1<br>&gt; &gt;        * Coulombtype = PME<br>&gt; &gt;        * rcoulomb = 1<br>&gt; &gt;        * fourier spacing = 0.12<br>&gt; &gt;        * vdwtype = Cutoff<br>&gt; &gt;        * rvdw = 1<br>&gt; &gt;<br>&gt; &gt; The cluster itself has got 2 procs/node connected by Ethernet 100 <br>&gt; &gt; MB/s. I'm using mpiexec to run Gromacs.  When I use -npme 2 -ddorder <br>&gt; &gt; interleave, I get:<br>&gt; Little mistake: I used the wrong cluster specifications. There is 4 <br>&gt; cores per nodes and they communicate with Infiniband.<br>&gt; &gt; ncore    Perf (ns/day)    PME (%)<br>&gt; &gt;<br>&gt; &gt;    1    0,00    0<br>&gt; &gt;    2    0,00    0<br>&gt; &gt;    3    0,00    0<br>&gt; &gt;    4    1,35    28<br>&gt; &gt;    5    1,84    31<br>&gt; &gt;    6    2,08    27<br>&gt; &gt;    8    2,09    21<br>&gt; &gt;    10    2,25    17<br>&gt; &gt;    12    2,02    15<br>&gt; &gt;    14    2,20    13<br>&gt; &gt;    16    2,04    11<br>&gt; &gt;    18    2,18    10<br>&gt; &gt;    20    2,29    9<br>&gt; &gt;<br>&gt; &gt; So, above 6-8 cores, the PP nodes are spending too much time waiting <br>&gt; &gt; for the PME nodes and the perf forms a plateau. When I use -npme 0, I <br>&gt; &gt; get:<br>&gt; &gt;<br>&gt; &gt;     ncore    Perf (ns/day)    PME (%)<br>&gt; &gt;    1    0,43    33<br>&gt; &gt;    2    0,92    34<br>&gt; &gt;    3    1,34    35<br>&gt; &gt;    4    1,69    36<br>&gt; &gt;    5    2,17    33<br>&gt; &gt;    6    2,56    32<br>&gt; &gt;    8    3,24    33<br>&gt; &gt;    10    3,84    34<br>&gt; &gt;    12    4,34    35<br>&gt; &gt;    14    5,05    32<br>&gt; &gt;    16    5,47    34<br>&gt; &gt;    18    5,54    37<br>&gt; &gt;    20    6,13    36<br>&gt; &gt;<br>&gt; &gt; I obtain much better performances when there is no PME nodes, while I <br>&gt; &gt; was expecting the opposite. Does someone have an explanation for that? <br>&gt; &gt; Does that means domain decomposition is useless below a certain real <br>&gt; &gt; space cutoff?  I'm quite confused.<br>&gt; &gt;<br>&gt; &gt; Thanks,<br>&gt; &gt; Nicolas<br>&gt; &gt;<br>&gt; &gt;<br>&gt; &gt; _______________________________________________<br>&gt; &gt; gmx-users mailing list    gmx-users@gromacs.org<br>&gt; &gt; http://www.gromacs.org/mailman/listinfo/gmx-users<br>&gt; &gt; Please search the archive at http://www.gromacs.org/search before posting!<br>&gt; &gt; Please don't post (un)subscribe requests to the list. Use the <br>&gt; &gt; www interface or send it to gmx-users-request@gromacs.org.<br>&gt; &gt; Can't post? Read http://www.gromacs.org/mailing_lists/users.php<br>&gt; <br><br /><hr />See all the ways you can stay connected <a href='http://www.microsoft.com/windows/windowslive/default.aspx' target='_new'>to friends and family</a></body>
</html>