HI MArtin,<br>I am using here the infiniband having speed more than 10 gbps..Can you suggest some option to scale better in this case.<br><br>With Thanks,<br>Vivek<br><br><div class="gmail_quote">2008/11/11 Martin Höfling <span dir="ltr">&lt;<a href="mailto:martin.hoefling@gmx.de">martin.hoefling@gmx.de</a>&gt;</span><br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">Am Dienstag 11 November 2008 12:06:06 schrieb vivek sharma:<br>
<div class="Ih2E3d"><br>
<br>
&gt; I have also tried scaling gromacs for a number of nodes ....but was not<br>
&gt; able to optimize it beyond 20 processor..on 20 nodes i.e. 1 processor per<br>
<br>
</div>As mentioned before, performance strongly depends on the type of interconnect<br>
you&#39;re using between your processes. Shared Memory, Ethernet, Infiniband,<br>
NumaLink, whatever...<br>
<br>
I assume you&#39;re using ethernet (100/1000 MBit?), you can tune here to some<br>
extend as described in:<br>
<br>
Kutzner, C.; Spoel, D. V. D.; Fechner, M.; Lindahl, E.; Schmitt, U. W.; Groot,<br>
B. L. D. &amp; Grubmüller, H. Speeding up parallel GROMACS on high-latency<br>
networks Journal of Computational Chemistry, 2007<br>
<br>
...but be aware that principal limitations of ethernet remain. To come around<br>
this, you might consider to invest in the interconnect. If you can come out<br>
with &lt;16 cores, shared memory nodes will give you the &quot;biggest bang for the<br>
buck&quot;.<br>
<br>
Best<br>
<font color="#888888"> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Martin<br>
</font><div><div></div><div class="Wj3C7c">_______________________________________________<br>
gmx-users mailing list &nbsp; &nbsp;<a href="mailto:gmx-users@gromacs.org">gmx-users@gromacs.org</a><br>
<a href="http://www.gromacs.org/mailman/listinfo/gmx-users" target="_blank">http://www.gromacs.org/mailman/listinfo/gmx-users</a><br>
Please search the archive at <a href="http://www.gromacs.org/search" target="_blank">http://www.gromacs.org/search</a> before posting!<br>
Please don&#39;t post (un)subscribe requests to the list. Use the<br>
www interface or send it to <a href="mailto:gmx-users-request@gromacs.org">gmx-users-request@gromacs.org</a>.<br>
Can&#39;t post? Read <a href="http://www.gromacs.org/mailing_lists/users.php" target="_blank">http://www.gromacs.org/mailing_lists/users.php</a><br>
</div></div></blockquote></div><br>