<table cellspacing="0" cellpadding="0" border="0" ><tr><td valign="top" style="font: inherit;">Hi, yeah, we have a clearly better performance with 2 nodes (8 CPU)! if
we try the same on 1 node (4 CPU) we have a day of difference. Yes, we
have a Gigabit ethernet network, so it is clear what you say about
congestion problems. We were thinking about to by pass the switch,
using another ethernet between two nodes each. Do you think that it
could be better for our performance??<br>Thank you in advance.<br>Flor<br><br>Dra.M.Florencia Martini<br>
Laboratorio de Fisicoquímica de Membranas Lipídicas y Liposomas<br>
Cátedra de Química General e Inorgánica<br>
Facultad de Farmacia y Bioquímica<br>
Universidad de Buenos Aires<br>
Junín 956 2º (1113)<br>
TE: 54 011 4964-8249 int 24<br><br>--- El <b>vie 25-sep-09, Carsten Kutzner <i>&lt;ckutzne@gwdg.de&gt;</i></b> escribió:<br><blockquote style="border-left: 2px solid rgb(16, 16, 255); margin-left: 5px; padding-left: 5px;"><br>De: Carsten Kutzner &lt;ckutzne@gwdg.de&gt;<br>Asunto: Re: [gmx-users] trying to get better performance in a Rocks cluster running GROMACS 4.0.4<br>Para: flormartini@yahoo.com.ar, "Discussion list for GROMACS users" &lt;gmx-users@gromacs.org&gt;<br>Fecha: viernes, 25 de septiembre de 2009, 9:19 am<br><br><div id="yiv260236558">Hi,<div><br></div><div>if you run without PME, there will be no all-to-all communication anyway,&nbsp;</div><div>so in this sense the paper is (mostly) irrelevant here. Since you mention this</div><div>paper I assume that your network is gigabit ethernet. If you run on recent</div><div>processors then I would say that for a 10000 atom system on 8 cores the</div><div>ethernet is clearly the limiting factor,
 even if it runs optimal (the chance for</div><div>congestion problems on two nodes only is also very limited - these are</div><div>likely to appear on 3 or more nodes).&nbsp;</div><div><br></div><div>What is your performance on a single node (4 CPUs)? You could compare&nbsp;</div><div>that to the performance of 4 CPUs on 2 nodes to determine the network</div><div>impact.</div><div><br></div><div>Carsten</div><div><br></div><div><br><div><div>On Sep 24, 2009, at 5:08 PM, FLOR MARTINI wrote:</div><br class="Apple-interchange-newline"><blockquote type="cite"><span class="Apple-style-span" style="border-collapse: separate; color: rgb(0, 0, 0); font-family: Helvetica; font-size: medium; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: normal; orphans: 2; text-indent: 0px; text-transform: none; white-space: normal; widows: 2; word-spacing: 0px;"><div><table style="" border="0" cellpadding="0"
 cellspacing="0"><tbody><tr><td style="font-family: inherit; font-style: inherit; font-variant: inherit; font-weight: inherit; font-size: inherit; line-height: inherit; font-size-adjust: inherit; font-stretch: inherit; -x-system-font: none;" valign="top">Thanks for your question.<br>We are running a lipid bilayer of 128 DPPC and 3655 water molecules and the nstep of the mdp is a total for 10 ns. I don´t think really that our system is a small one...<br><br>Dra.M.Florencia Martini<br>Laboratorio de Fisicoquímica de Membranas Lipídicas y Liposomas<br>Cátedra de Química General e Inorgánica<br>Facultad de Farmacia y Bioquímica<br>Universidad de Buenos Aires<br>Junín 956 2º (1113)<br>TE: 54 011 4964-8249 int 24<br><br>--- El<span class="Apple-converted-space">&nbsp;</span><b>jue 24-sep-09, Berk Hess<span class="Apple-converted-space">&nbsp;</span><i>&lt;<a rel="nofollow" ymailto="mailto:gmx3@hotmail.com" target="_blank"
 href="/mc/compose?to=gmx3@hotmail.com">gmx3@hotmail.com</a>&gt;</i></b><span class="Apple-converted-space">&nbsp;</span>escribió:<br><blockquote style="border-left: 2px solid rgb(16, 16, 255); margin-left: 5px; padding-left: 5px;"><br>De: Berk Hess &lt;<a rel="nofollow" ymailto="mailto:gmx3@hotmail.com" target="_blank" href="/mc/compose?to=gmx3@hotmail.com">gmx3@hotmail.com</a>&gt;<br>Asunto: RE: [gmx-users] trying to get better performance in a Rocks cluster running GROMACS 4.0.4<br>Para: "Discussion list for GROMACS users" &lt;<a rel="nofollow" ymailto="mailto:gmx-users@gromacs.org" target="_blank" href="/mc/compose?to=gmx-users@gromacs.org">gmx-users@gromacs.org</a>&gt;<br>Fecha: jueves, 24 de septiembre de 2009, 11:22 am<br><br><div id="yiv477980010" style="font-size: 10pt; font-family: Verdana;">Hi,<br><br>You don't mention what kind of benchmark system tou are using for these tests.<br>A too small system could explain these
 results.<br><br>Berk<br><br><br><hr id="stopSpelling">Date: Thu, 24 Sep 2009 07:01:04 -0700<br>From:<span class="Apple-converted-space">&nbsp;</span><a rel="nofollow" ymailto="mailto:flormartini@yahoo.com.ar" target="_blank" href="/mc/compose?to=flormartini@yahoo.com.ar">flormartini@yahoo.com.ar</a><br>To:<span class="Apple-converted-space">&nbsp;</span><a rel="nofollow" ymailto="mailto:gmx-users@gromacs.org" target="_blank" href="/mc/compose?to=gmx-users@gromacs.org">gmx-users@gromacs.org</a><br>Subject: [gmx-users] trying to get better performance in a Rocks cluster        running GROMACS 4.0.4<br><br><table border="0" cellpadding="0" cellspacing="0"><tbody><tr><td style="font-family: inherit; font-style: inherit; font-variant: inherit; font-weight: inherit; font-size: inherit; line-height: inherit; font-stretch: inherit;" valign="top">hi,<br><br>&nbsp;&nbsp;&nbsp;We are about to start running GROMACS 4.0.4 with OpenMPI, in 8<br>nodes, quad core Rocks
 cluster. We made some tests, without PME and<br>found two notable things:<br><br>* We are getting the best speedup (6) with 2 nodes ( == 8 cores ). I read<br>the "Speeding Up Parallel GROMACS in High Latency networks" paper, and<br>thought that the culprit was the switch, but ifconfig shows no retransmits<br>(neither does ethtool -s or netstat -s). Does version 4 includes the<br>alltoall patch? Is the paper irrelevant with GROMACS 4?<br><br>* When running with the whole cluster ( 8 nodes, 32 cores ), top reports<br>in any node a 50% system CPU usage. Is that normal? Can it be accounted to<br>the use of the network? The sys usage gets a bit up when we configured the<br>Intel NICs with Interrupt Coalescense Off, so I'm tempted to think it is<br>just OpenMPI hammering the tcp stack, polling for packages.<br><br>Thanks in advance,<br><br>Dra.M.Florencia Martini<br>Laboratorio de Fisicoquímica de Membranas Lipídicas y Liposomas<br>Cátedra de Química
 General e Inorgánica<br>Facultad de Farmacia y Bioquímica<br>Universidad de Buenos Aires<br>Junín 956 2º (1113)<br>TE: 54 011 4964-8249 int 24</td></tr></tbody></table><br><hr size="1"><br><font size="-2" face="Verdana">Encontra las mejores recetas con Yahoo! Cocina.<span class="Apple-converted-space">&nbsp;</span><br><a rel="nofollow" target="_blank" href="http://ar.mujer.yahoo.com/cocina/">http://ar.mujer.yahoo.com/cocina/</a></font><span class="Apple-converted-space">&nbsp;</span><br><hr>Express yourself instantly with MSN Messenger!<span class="Apple-converted-space">&nbsp;</span><a rel="nofollow" target="_blank" href="http://clk.atdmt.com/AVE/go/onm00200471ave/direct/01/">MSN Messenger</a></div><br>-----Adjunto en línea a continuación-----<br><br><div class="plainMail">_______________________________________________<br>gmx-users mailing list&nbsp; &nbsp;<span class="Apple-converted-space">&nbsp;</span><a
 rel="nofollow">gmx-users@gromacs.org</a><br><a rel="nofollow" target="_blank" href="http://lists.gromacs.org/mailman/listinfo/gmx-users">http://lists.gromacs.org/mailman/listinfo/gmx-users</a><br>Please search the archive at<span class="Apple-converted-space">&nbsp;</span><a rel="nofollow" target="_blank" href="http://www.gromacs.org/search">http://www.gromacs.org/search</a><span class="Apple-converted-space">&nbsp;</span>before posting!<br>Please don't post (un)subscribe requests to the list. Use the<span class="Apple-converted-space">&nbsp;</span><br>www interface or send it to<span class="Apple-converted-space">&nbsp;</span><a rel="nofollow">gmx-users-request@gromacs.org</a>.<br>Can't post? Read<span class="Apple-converted-space">&nbsp;</span><a rel="nofollow" target="_blank" href="http://www.gromacs.org/mailing_lists/users.php">http://www.gromacs.org/mailing_lists/users.php</a></div></blockquote></td></tr></tbody></table><br><hr size="1"><br><font
 size="-2" face="Verdana">Encontra las mejores recetas con Yahoo! Cocina.<span class="Apple-converted-space">&nbsp;</span><br><a rel="nofollow" target="_blank" href="http://ar.mujer.yahoo.com/cocina/">http://ar.mujer.yahoo.com/cocina/</a></font>_______________________________________________<br>gmx-users mailing list &nbsp;&nbsp;&nbsp;<a rel="nofollow" ymailto="mailto:gmx-users@gromacs.org" target="_blank" href="/mc/compose?to=gmx-users@gromacs.org">gmx-users@gromacs.org</a><br><a rel="nofollow" target="_blank" href="http://lists.gromacs.org/mailman/listinfo/gmx-users">http://lists.gromacs.org/mailman/listinfo/gmx-users</a><br>Please search the archive at<span class="Apple-converted-space">&nbsp;</span><a rel="nofollow" target="_blank" href="http://www.gromacs.org/search">http://www.gromacs.org/search</a><span class="Apple-converted-space">&nbsp;</span>before posting!<br>Please don't post (un)subscribe requests to the list. Use the<span
 class="Apple-converted-space">&nbsp;</span><br>www interface or send it to<span class="Apple-converted-space">&nbsp;</span><a rel="nofollow" ymailto="mailto:gmx-users-request@gromacs.org" target="_blank" href="/mc/compose?to=gmx-users-request@gromacs.org">gmx-users-request@gromacs.org</a>.<br>Can't post? Read<span class="Apple-converted-space">&nbsp;</span><a rel="nofollow" target="_blank" href="http://www.gromacs.org/mailing_lists/users.php">http://www.gromacs.org/mailing_lists/users.php</a></div></span></blockquote></div><br><div> <span class="Apple-style-span" style="border-collapse: separate; color: rgb(0, 0, 0); font-family: Helvetica; font-size: 14px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: normal; orphans: 2; text-indent: 0px; text-transform: none; white-space: normal; widows: 2; word-spacing: 0px;"><div style=""><span class="Apple-style-span" style="border-collapse: separate; color:
 rgb(0, 0, 0); font-family: Helvetica; font-size: 14px; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: normal; orphans: 2; text-indent: 0px; text-transform: none; white-space: normal; widows: 2; word-spacing: 0px;"><div style=""><div><br class="Apple-interchange-newline">--</div><div>Dr.&nbsp;Carsten Kutzner</div><div>Max Planck Institute for Biophysical Chemistry</div><div>Theoretical and Computational Biophysics</div><div>Am Fassberg 11,&nbsp;37077 Goettingen, Germany</div><div>Tel. +49-551-2012313, Fax: +49-551-2012302</div><div><a rel="nofollow" target="_blank" href="http://www.mpibpc.mpg.de/home/grubmueller/ihp/ckutzne">http://www.mpibpc.mpg.de/home/grubmueller/ihp/ckutzne</a></div><div><br></div></div><br class="Apple-interchange-newline"></span><br class="Apple-interchange-newline"></div></span> </div><br></div></div></blockquote></td></tr></table><br>



      <hr size=1><br><font face="Verdana" size="-2">Encontra las mejores recetas con Yahoo! Cocina.
<br>
http://ar.mujer.yahoo.com/cocina/</font>