<br><br><div class="gmail_quote">2008/11/11 Justin A. Lemkul <span dir="ltr">&lt;<a href="mailto:jalemkul@vt.edu">jalemkul@vt.edu</a>&gt;</span><br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
<div class="Ih2E3d"><br>
<br>
vivek sharma wrote:<br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
HI MArtin,<br>
I am using here the infiniband having speed more than 10 gbps..Can you suggest some option to scale better in this case.<br>
<br>
</blockquote>
<br></div>
What % imbalance is being reported in the log file? &nbsp;What fraction of the load is being assigned to PME, from grompp? &nbsp;How many processors are you assigning to the PME calculation? &nbsp;Are you using dynamic load balancing?</blockquote>
<div><br>Everybody thanks for your usefull suggestions..<br>What do you mean by % imbalance reported in log file. I don&#39;t know how to assign the specific load to PME, but I can see that around 37% of the computation is being used by PME. <br>
I am not assigning PME nodes separately. I have no idea of dynamic load balancing and how to use it&nbsp; ?<br><br>Looking forward for answers...<br><br>With Thanks,<br>Vivek <br></div><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
<br>
<br>
All of these factors affect performance.<br>
<br>
-Justin<br>
<br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
With Thanks,<br>
Vivek<br>
<br>
2008/11/11 Martin Höfling &lt;<a href="mailto:martin.hoefling@gmx.de" target="_blank">martin.hoefling@gmx.de</a> &lt;mailto:<a href="mailto:martin.hoefling@gmx.de" target="_blank">martin.hoefling@gmx.de</a>&gt;&gt;<div><div>
</div><div class="Wj3C7c"><br>
<br>
 &nbsp; &nbsp;Am Dienstag 11 November 2008 12:06:06 schrieb vivek sharma:<br>
<br>
<br>
 &nbsp; &nbsp; &gt; I have also tried scaling gromacs for a number of nodes ....but<br>
 &nbsp; &nbsp;was not<br>
 &nbsp; &nbsp; &gt; able to optimize it beyond 20 processor..on 20 nodes i.e. 1<br>
 &nbsp; &nbsp;processor per<br>
<br>
 &nbsp; &nbsp;As mentioned before, performance strongly depends on the type of<br>
 &nbsp; &nbsp;interconnect<br>
 &nbsp; &nbsp;you&#39;re using between your processes. Shared Memory, Ethernet,<br>
 &nbsp; &nbsp;Infiniband,<br>
 &nbsp; &nbsp;NumaLink, whatever...<br>
<br>
 &nbsp; &nbsp;I assume you&#39;re using ethernet (100/1000 MBit?), you can tune here<br>
 &nbsp; &nbsp;to some<br>
 &nbsp; &nbsp;extend as described in:<br>
<br>
 &nbsp; &nbsp;Kutzner, C.; Spoel, D. V. D.; Fechner, M.; Lindahl, E.; Schmitt, U.<br>
 &nbsp; &nbsp;W.; Groot,<br>
 &nbsp; &nbsp;B. L. D. &amp; Grubmüller, H. Speeding up parallel GROMACS on high-latency<br>
 &nbsp; &nbsp;networks Journal of Computational Chemistry, 2007<br>
<br>
 &nbsp; &nbsp;...but be aware that principal limitations of ethernet remain. To<br>
 &nbsp; &nbsp;come around<br>
 &nbsp; &nbsp;this, you might consider to invest in the interconnect. If you can<br>
 &nbsp; &nbsp;come out<br>
 &nbsp; &nbsp;with &lt;16 cores, shared memory nodes will give you the &quot;biggest bang<br>
 &nbsp; &nbsp;for the<br>
 &nbsp; &nbsp;buck&quot;.<br>
<br>
 &nbsp; &nbsp;Best<br>
 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Martin<br>
 &nbsp; &nbsp;_______________________________________________<br>
 &nbsp; &nbsp;gmx-users mailing list &nbsp; &nbsp;<a href="mailto:gmx-users@gromacs.org" target="_blank">gmx-users@gromacs.org</a><br></div></div>
 &nbsp; &nbsp;&lt;mailto:<a href="mailto:gmx-users@gromacs.org" target="_blank">gmx-users@gromacs.org</a>&gt;<div class="Ih2E3d"><br>
 &nbsp; &nbsp;<a href="http://www.gromacs.org/mailman/listinfo/gmx-users" target="_blank">http://www.gromacs.org/mailman/listinfo/gmx-users</a><br>
 &nbsp; &nbsp;Please search the archive at <a href="http://www.gromacs.org/search" target="_blank">http://www.gromacs.org/search</a> before<br>
 &nbsp; &nbsp;posting!<br>
 &nbsp; &nbsp;Please don&#39;t post (un)subscribe requests to the list. Use the<br>
 &nbsp; &nbsp;www interface or send it to <a href="mailto:gmx-users-request@gromacs.org" target="_blank">gmx-users-request@gromacs.org</a><br></div>
 &nbsp; &nbsp;&lt;mailto:<a href="mailto:gmx-users-request@gromacs.org" target="_blank">gmx-users-request@gromacs.org</a>&gt;.<div class="Ih2E3d"><br>
 &nbsp; &nbsp;Can&#39;t post? Read <a href="http://www.gromacs.org/mailing_lists/users.php" target="_blank">http://www.gromacs.org/mailing_lists/users.php</a><br>
<br>
<br>
<br></div>
------------------------------------------------------------------------<div class="Ih2E3d"><br>
<br>
_______________________________________________<br>
gmx-users mailing list &nbsp; &nbsp;<a href="mailto:gmx-users@gromacs.org" target="_blank">gmx-users@gromacs.org</a><br>
<a href="http://www.gromacs.org/mailman/listinfo/gmx-users" target="_blank">http://www.gromacs.org/mailman/listinfo/gmx-users</a><br>
Please search the archive at <a href="http://www.gromacs.org/search" target="_blank">http://www.gromacs.org/search</a> before posting!<br>
Please don&#39;t post (un)subscribe requests to the list. Use the www interface or send it to <a href="mailto:gmx-users-request@gromacs.org" target="_blank">gmx-users-request@gromacs.org</a>.<br>
Can&#39;t post? Read <a href="http://www.gromacs.org/mailing_lists/users.php" target="_blank">http://www.gromacs.org/mailing_lists/users.php</a><br>
</div></blockquote>
<br><div class="Ih2E3d">
-- <br>
========================================<br>
<br>
Justin A. Lemkul<br>
Graduate Research Assistant<br>
Department of Biochemistry<br>
Virginia Tech<br>
Blacksburg, VA<br>
jalemkul[at]<a href="http://vt.edu" target="_blank">vt.edu</a> | (540) 231-9080<br>
<a href="http://www.bevanlab.biochem.vt.edu/Pages/Personal/justin" target="_blank">http://www.bevanlab.biochem.vt.edu/Pages/Personal/justin</a><br>
<br>
========================================<br>
_______________________________________________<br></div><div><div></div><div class="Wj3C7c">
gmx-users mailing list &nbsp; &nbsp;<a href="mailto:gmx-users@gromacs.org" target="_blank">gmx-users@gromacs.org</a><br>
<a href="http://www.gromacs.org/mailman/listinfo/gmx-users" target="_blank">http://www.gromacs.org/mailman/listinfo/gmx-users</a><br>
Please search the archive at <a href="http://www.gromacs.org/search" target="_blank">http://www.gromacs.org/search</a> before posting!<br>
Please don&#39;t post (un)subscribe requests to the list. Use the www interface or send it to <a href="mailto:gmx-users-request@gromacs.org" target="_blank">gmx-users-request@gromacs.org</a>.<br>
Can&#39;t post? Read <a href="http://www.gromacs.org/mailing_lists/users.php" target="_blank">http://www.gromacs.org/mailing_lists/users.php</a><br>
</div></div></blockquote></div><br>