<html>
<head>
<style><!--
.hmmessage P
{
margin:0px;
padding:0px
}
body.hmmessage
{
font-size: 10pt;
font-family:Verdana
}
--></style>
</head>
<body class='hmmessage'>
<br><br>&gt; From: zhao0139@ntu.edu.sg<br>&gt; To: gmx-users@gromacs.org<br>&gt; Date: Tue, 6 Apr 2010 20:45:37 +0800<br>&gt; Subject: [gmx-users] Re: loab imbalance<br>&gt; <br>&gt; <br>&gt; &gt; &gt; &gt; On 6/04/2010 5:39 PM, lina wrote:<br>&gt; &gt; &gt; &gt; &gt; Hi everyone,<br>&gt; &gt; &gt; &gt; &gt;<br>&gt; &gt; &gt; &gt; &gt; Here is the result of the mdrun which was performed on 16cpus. I am not<br>&gt; &gt; &gt; &gt; &gt; clear about it, was it due to using MPI reason? or some other reasons.<br>&gt; &gt; &gt; &gt; &gt;<br>&gt; &gt; &gt; &gt; &gt; Writing final coordinates.<br>&gt; &gt; &gt; &gt; &gt;<br>&gt; &gt; &gt; &gt; &gt;   Average load imbalance: 1500.0 %<br>&gt; &gt; &gt; &gt; &gt;   Part of the total run time spent waiting due to load imbalance: 187.5 %<br>&gt; &gt; &gt; &gt; &gt;   Steps where the load balancing was limited by -rdd, -rcon and/or -dds:<br>&gt; &gt; &gt; &gt; &gt; X 0 % Y 0 %<br>&gt; &gt; &gt; &gt; &gt;<br>&gt; &gt; &gt; &gt; &gt; NOTE: 187.5 % performance was lost due to load imbalance<br>&gt; &gt; &gt; &gt; &gt;        in the domain decomposition.<br>&gt; &gt; &gt; &gt; <br>&gt; &gt; &gt; &gt; You ran an inefficient but otherwise valid computation. Check out the <br>&gt; &gt; &gt; &gt; manual section on domain decomposition to learn why it was inefficient, <br>&gt; &gt; &gt; &gt; and whether you can do better.<br>&gt; &gt; &gt; &gt; <br>&gt; &gt; &gt; &gt; Mark<br>&gt; &gt; &gt; <br>&gt; &gt; &gt; I search the "decomposition" keyword on Gromacs manual, no match found.<br>&gt; &gt; &gt; Are you positive about that? Thanks any way, but can you make it more<br>&gt; &gt; &gt; problem-solved-oriented, so I can easily understand.<br>&gt; &gt; &gt; <br>&gt; &gt; &gt; Thanks and regards,<br>&gt; &gt; &gt; <br>&gt; &gt; &gt; lina<br>&gt; &gt; <br>&gt; &gt; This looks strange.<br>&gt; &gt; You have 1 core doing something and 15 cores doing nothing.<br>&gt; &gt; Do you only have one small molecule?<br>&gt; &gt; How many steps was this simulation?<br>&gt; &gt; <br>&gt; &gt; Berk<br>&gt; <br>&gt; I do not think there was only 1 core doing something and other 15 cores<br>&gt; doing nothing.<br>&gt; <br>&gt; Below is the time-consumed on 8 cpus and 16 cpus. I tried twice to<br>&gt; compare the results. <br>&gt; <br>&gt; 8cpus:<br>&gt;         Parallel run - timing based on wallclock.<br>&gt; <br>&gt;                NODE (s)   Real (s)      (%)<br>&gt;        Time:  52292.000  52292.000    100.0<br>&gt;                        14h31:32<br>&gt;                (Mnbf/s)   (GFlops)   (ns/day)  (hour/ns)<br>&gt; Performance:    523.244     19.720     16.523      1.453<br>&gt; Finished mdrun on node 0 Tue Apr  6 05:09:47 2010<br>&gt; <br>&gt; 16cpus:<br>&gt; <br>&gt;         Parallel run - timing based on wallclock.<br>&gt; <br>&gt;                NODE (s)   Real (s)      (%)<br>&gt;        Time:  96457.000  96457.000    100.0<br>&gt;                        1d02h47:37<br>&gt;                (Mnbf/s)   (GFlops)   (ns/day)  (hour/ns)<br>&gt; Performance:    283.696     10.701      8.957      2.679<br>&gt; Finished mdrun on node 0 Mon Apr  5 01:36:18 2010<br>&gt; <br>&gt; Thanks and regards,<br>&gt; <br>&gt; lina<br><br>The first time I did not notice that 16 cpus are twice as slow as 8.<br>Are you really sure you did not mix things up?<br>The other way around the timings would make perfect sense.<br>If not, there is a problem with your 16 cpu simulation.<br><br>What load imbalance is reported for the 8 cpu run?<br><br>Berk<br><br>                                               <br /><hr />New Windows 7: Find the right PC for you. <a href='http://windows.microsoft.com/shop' target='_new'>Learn more.</a></body>
</html>