<html>
<head>
<style><!--
.hmmessage P
{
margin:0px;
padding:0px
}
body.hmmessage
{
font-size: 10pt;
font-family:Verdana
}
--></style>
</head>
<body class='hmmessage'>
<br><br>&gt; From: zhao0139@ntu.edu.sg<br>&gt; To: gmx-users@gromacs.org<br>&gt; Date: Tue, 6 Apr 2010 20:31:18 +0800<br>&gt; Subject: [gmx-users] RE: Re: loab imbalance<br>&gt; <br>&gt; &gt; &gt; &gt; On 6/04/2010 5:39 PM, lina wrote:<br>&gt; &gt; &gt; &gt; &gt; Hi everyone,<br>&gt; &gt; &gt; &gt; &gt;<br>&gt; &gt; &gt; &gt; &gt; Here is the result of the mdrun which was performed on 16cpus. I am not<br>&gt; &gt; &gt; &gt; &gt; clear about it, was it due to using MPI reason? or some other reasons.<br>&gt; &gt; &gt; &gt; &gt;<br>&gt; &gt; &gt; &gt; &gt; Writing final coordinates.<br>&gt; &gt; &gt; &gt; &gt;   Average load imbalance: 1500.0 %<br>&gt; &gt; &gt; &gt; &gt;   Part of the total run time spent waiting due to load imbalance: 187.5 %<br>&gt; &gt; &gt; &gt; &gt;   Steps where the load balancing was limited by -rdd, -rcon and/or -dds:<br>&gt; &gt; &gt; &gt; &gt; X 0 % Y 0 %<br>&gt; &gt; &gt; &gt; &gt; NOTE: 187.5 % performance was lost due to load imbalance<br>&gt; &gt; &gt; &gt; &gt;        in the domain decomposition.<br>&gt; &gt; &gt; &gt; <br>&gt; &gt; &gt; &gt; You ran an inefficient but otherwise valid computation. Check out the <br>&gt; &gt; &gt; &gt; manual section on domain decomposition to learn why it was inefficient, <br>&gt; &gt; &gt; &gt; and whether you can do better.<br>&gt; &gt; &gt; &gt; <br>&gt; &gt; &gt; &gt; Mark<br>&gt; &gt; &gt; <br>&gt; &gt; &gt; I search the "decomposition" keyword on Gromacs manual, no match found.<br>&gt; &gt; &gt; Are you positive about that? Thanks any way, but can you make it more<br>&gt; &gt; &gt; problem-solved-oriented, so I can easily understand.<br>&gt; &gt; &gt; <br>&gt; &gt; &gt; Thanks and regards,<br>&gt; &gt; &gt; <br>&gt; &gt; &gt; lina<br>&gt; &gt; <br>&gt; &gt; This looks strange.<br>&gt; &gt; You have 1 core doing something and 15 cores doing nothing.<br>&gt; &gt; Do you only have one small molecule?<br>&gt; &gt; How many steps was this simulation?<br>&gt; &gt; <br>&gt; &gt; Berk<br>&gt; <br>&gt; 6,000,000steps. When I used htop to check the 16 cores, found they were<br>&gt; all took 100%. I am surprised to be told that only 1 core working. <br>&gt; Below is part of the md.log<br>&gt; <br>&gt; Initializing Domain Decomposition on 16 nodes<br>&gt; Dynamic load balancing: auto<br>&gt; Will sort the charge groups at every domain (re)decomposition<br>&gt; Initial maximum inter charge-group distances:<br>&gt;     two-body bonded interactions: 0.574 nm, LJ-14, atoms 330 338<br>&gt;   multi-body bonded interactions: 0.572 nm, Proper Dih., atoms 934 942<br>&gt; Minimum cell size due to bonded interactions: 0.629 nm<br>&gt; Maximum distance for 5 constraints, at 120 deg. angles, all-trans: 0.876<br>&gt; nm<br>&gt; Estimated maximum distance required for P-LINCS: 0.876 nm<br>&gt; This distance will limit the DD cell size, you can override this with<br>&gt; -rcon<br>&gt; Scaling the initial minimum size with 1/0.8 (option -dds) = 1.25<br>&gt; Optimizing the DD grid for 16 cells with a minimum initial size of 1.095<br>&gt; nm<br>&gt; The maximum allowed number of cells is: X 5 Y 5 Z 4<br>&gt; Domain decomposition grid 4 x 4 x 1, separate PME nodes 0<br>&gt; Domain decomposition nodeid 0, coordinates 0 0 0<br>&gt; <br>&gt; Table routines are used for coulomb: FALSE<br>&gt; Table routines are used for vdw:     FALSE<br>&gt; Cut-off's:   NS: 0.9   Coulomb: 1.4   LJ: 1.4<br>&gt; Reaction-Field:<br>&gt; epsRF = 78, rc = 1.4, krf = 0.178734, crf = 1.0646, epsfac = 138.935<br>&gt; The electrostatics potential has its minimum at r = 1.40903<br>&gt; System total charge: 0.000<br>&gt; Generated table with 4800 data points for 1-4 COUL.<br>&gt; Tabscale = 2000 points/nm<br>&gt; Generated table with 4800 data points for 1-4 LJ6.<br>&gt; Tabscale = 2000 points/nm<br>&gt; Generated table with 4800 data points for 1-4 LJ12.<br>&gt; Tabscale = 2000 points/nm<br>&gt; <br>&gt; Enabling SPC water optimization for 7729 molecules.<br>&gt; <br>&gt; Configuring nonbonded kernels...<br>&gt; Testing x86_64 SSE2 support... present.<br>&gt; <br>&gt; Initializing Parallel LINear Constraint Solver.<br>&gt; <br>&gt; Thanks advance.<br>&gt; <br>&gt; lina<br><br>This all looks very normal.<br>I would guess the imbalance print in the output is incorrect.<br>Which version of Gromacs are you using?<br><br>You could run a short simulation (of a minute or so) on 1 or 2 cores<br>and compare the ns/day reported at the end of the log file to this run.<br><br>Berk<br><br>                                               <br /><hr />Express yourself instantly with MSN Messenger! <a href='http://clk.atdmt.com/AVE/go/onm00200471ave/direct/01/' target='_new'>MSN Messenger</a></body>
</html>