<html>
<head>
<style>
.hmmessage P
{
margin:0px;
padding:0px
}
body.hmmessage
{
font-size: 10pt;
font-family:Verdana
}
</style>
</head>
<body class='hmmessage'>
Hi,<br><br>Oops, I meant 72000, which is only a factor of 10.<br>I guess it might be faster one two nodes then, but probably not 2 times.<br>If you use PME you can also experiment with putting all the PME nodes<br>on one machine and the non-PME nodes on the other,<br>probably with mdrun -ddorder pp_pme<br><br>Gromacs supports near to maxint atoms.<br>The question is much more what kind of system size you are scientifically interested in.<br><br>Ethernet will never scale very well for small numbers of atoms per core.<br>Infiniband will scale very well.<br><br>Berk<br><br><br><hr id="stopSpelling">Date: Wed, 18 Feb 2009 12:56:16 -0800<br>From: lastexile7gr@yahoo.de<br>Subject: RE: [gmx-users] gromacs-4.0.2,        parallel performance in two quad core xeon machines<br>To: gmx-users@gromacs.org<br><br><table border="0" cellpadding="0" cellspacing="0"><tbody><tr><td style="font-family: inherit; font-style: inherit; font-variant: inherit; font-weight: inherit; font-size: inherit; line-height: inherit; font-size-adjust: inherit; font-stretch: inherit; -x-system-font: none;" valign="top">Hello,<BR><BR>thank you for your answer. I just wondering though. How am I supposed to have a system with more than 99999 atoms, while the gro file has a fixed format giving up to 5 digits in the number of atoms?&nbsp;<br><BR><BR>What else should I change in order to succeed better performance from my hardware if I can succeed having a much bigger system? You say so that ethernet has reached its limits..&nbsp;<BR><BR>I was concidering using a supercomputing center in Europe and as far as I know they are using nodes which are using the Cell 9 core processors technology in each node. How someone there can accomplish a better performance using gromacs 4 using more nodes? Which might be the limit there in such machines. &nbsp;<BR><BR>Thank you once again,<BR>Nikos<BR><br>--- Berk Hess <i>&lt;gmx3@hotmail.com&gt;</i> schrieb am <b>Mi,
 18.2.2009:<br></b><blockquote style="margin-left: 5px; padding-left: 5px;"><b>Von: Berk Hess &lt;gmx3@hotmail.com&gt;<br>Betreff: RE: [gmx-users] gromacs-4.0.2, parallel performance in two quad core xeon machines<br>An: lastexile7gr@yahoo.de<br>Datum: Mittwoch, 18. Februar 2009, 19:16<br><br></b><div id="EC_yiv278737063">

<style>
.ExternalClass #EC_yiv278737063 .EC_hmmessage P
{padding:0px;}
.ExternalClass #EC_yiv278737063
{font-size:10pt;font-family:Verdana;}
</style>

<b> 
Hi,<br><br>You can not scale a system of just 7200 atoms<br>to 16 cores which are connected by ethernet.<br>400 atoms per core is already the scaling limit of Gromacs<br>on current hardware with the fastest available network.<br><br>On ethernet a system 100 times as large might scale well to two nodes.<br><br>Berk<br><br><br></b><hr id="EC_stopSpelling"><b>Date: Wed, 18 Feb 2009 09:40:28 -0800<br>From: lastexile7gr@yahoo.de<br>To: gmx-users@gromacs.org<br>Subject: [gmx-users] gromacs-4.0.2,        parallel performance in two quad core xeon machines <br><br></b><table border="0" cellpadding="0" cellspacing="0"><tbody><tr><td style="font-family: inherit; font-style: inherit; font-variant: inherit; font-weight: inherit; font-size: inherit; line-height: inherit;" valign="top">Hello,<br><br>we have built a cluster with nodes that are comprised by the following: dual core Intel(R) Xeon(R) CPU E3110 @ 3.00GHz. The memory of each node has 16Gb of
 memory. The switch that we use is a dell power connect model. Each node has a Gigabyte ethernet card..<br><br>I tested the performance for a system of 7200 atoms in 4cores of one node, in 8 cores of one node and in 16 cores of two nodes. In one node the performance is getting better.<br>The problem I get is that moving from one node to two, the performance decreases dramatically (almost two days for a run that finishes in less than 3 hours!).<br><br>I have compiled gromacs with --enable-mpi option. I also have read previous archives from Mr Kurtzner, yet from what I saw is that they are focused on errors in gromacs 4 or on problems that previous versions of gromacs had. I get no errors, just low
 performance.<br><br>Is there any option that I must enable in order to succeed better performance in more than one nodes?&nbsp; Or do you think according to your experience that the switch we use might be the problem? Or maybe should we have to activate anything from the nodes?<br><br>Thank you in advance,<br>Nikos<br><br></td></tr></tbody></table><b><br><br></b><hr><b>Express yourself instantly with MSN Messenger! <a rel="nofollow" href="http://clk.atdmt.com/AVE/go/onm00200471ave/direct/01/">MSN Messenger</a> 
</b></div></blockquote></td></tr></tbody></table><br><br /><hr />Express yourself instantly with MSN Messenger! <a href='http://clk.atdmt.com/AVE/go/onm00200471ave/direct/01/' target='_new'>MSN Messenger</a></body>
</html>