<br /><br /><span>On 02/23/11, <b class="name">Fabio Affinito </b> &lt;f.affinito@cineca.it&gt; wrote:</span><blockquote cite="mid:4D64D448.9070601@cineca.it" class="iwcQuote" style="border-left: 1px solid rgb(0, 0, 255); padding-left: 13px; margin-left: 0pt;" type="cite"><div class="mimepart text plain">Hi Mark,<br />I've checked with Valeria and the problem is actually on the setup of<br />the system (unfair overlapping of the temperature distribution). So I<br />think that the loss of efficiency should be of a factor between 2 or 3<br />in her case and not more.</div></blockquote><br />That's going to affect the usefulness of doing replica-exchange, but not the computational performance when doing it. Doing exchanges that never/always succeed makes essentially no difference to the performance.<br /><br />Mark<br /><br /><blockquote cite="mid:4D64D448.9070601@cineca.it" class="iwcQuote" style="border-left: 1px solid rgb(0, 0, 255); padding-left: 13px; margin-left: 0pt;" type="cite"><div class="mimepart text plain">On 02/23/2011 10:31 AM, Mark Abraham wrote:<br />&gt; <br />&gt; <br />&gt; On 02/23/11, *Valeria Losasso * &lt;losasso@sissa.it&gt; wrote:<br />&gt;&gt;<br />&gt;&gt; Thank you Mark. I found one message of this month concerning this<br />&gt;&gt; topic, and there are some small suggestions. I don't think that such a<br />&gt;&gt; changes can restore a factor of 26, but it could be worth to try to<br />&gt;&gt; see what happens. I will let you know.<br />&gt; <br />&gt; They won't. The problem is that every 10 (or so) MD steps every<br />&gt; processor does global communication to check nothing's gone wrong. That<br />&gt; resulted from some unrelated bits of code trying to share the same<br />&gt; machinery for efficiency, and treading on each others' toes.<br />&gt; <br />&gt; Mark<br />&gt; <br />&gt;&gt; Valeria<br />&gt;&gt;<br />&gt;&gt;<br />&gt;&gt;<br />&gt;&gt; On Wed, 23 Feb 2011, Mark Abraham wrote:<br />&gt;&gt;<br />&gt;&gt; &gt;<br />&gt;&gt; &gt;<br />&gt;&gt; &gt;On 02/23/11, Valeria Losasso &lt;losasso@sissa.it&gt; wrote:<br />&gt;&gt; &gt;<br />&gt;&gt; &gt;      Dear all,<br />&gt;&gt; &gt;      I am making some tests to start using replica exchange<br />&gt;&gt; molecular dynamics on my system in water. The setup is ok<br />&gt;&gt; &gt;      (i.e. one replica alone runs correctly), but I am not able to<br />&gt;&gt; parallelize the REMD. Details follow:<br />&gt;&gt; &gt;<br />&gt;&gt; &gt;      - the test is on 8 temperatures, so 8 replicas<br />&gt;&gt; &gt;      - Gromacs version 4.5.3<br />&gt;&gt; &gt;      - One replica alone, in 30 minutes with 256 processors, makes<br />&gt;&gt; 52500 steps. 8 replicas with 256x8 = 2048<br />&gt;&gt; &gt;      processors, make 300 (!!) steps each = 2400 in total (I arrived<br />&gt;&gt; to these numbers just to see some update of the<br />&gt;&gt; &gt;      log file: since I am running on a big cluster, I can not use<br />&gt;&gt; more than half an hour for tests with less than 512<br />&gt;&gt; &gt;      processors)<br />&gt;&gt; &gt;      - I am using mpirun with options -np 256 -s  md_.tpr -multi 8<br />&gt;&gt; -replex 1000<br />&gt;&gt; &gt;<br />&gt;&gt; &gt;<br />&gt;&gt; &gt;There have been two threads on this topic in the last month or so,<br />&gt;&gt; please check the archives. The implementation of<br />&gt;&gt; &gt;multi-simulations scales poorly. The scaling of replica-exchange<br />&gt;&gt; itself is not great either. I have a working version under<br />&gt;&gt; &gt;final development that scales much better. Watch this space.<br />&gt;&gt; &gt;<br />&gt;&gt; &gt;Mark<br />&gt;&gt; &gt;<br /><br /><br />-- <br />*********************************************<br />Fabio Affinito, PhD<br />CINECA<br />SuperComputing Applications and Innovation Department - SCAI<br />Via Magnanelli, 6/3<br />40033 Casalecchio di Reno (Bologna) ITALY<br />+39/051/6171794 (Phone)<br />-- <br />gmx-users mailing list    gmx-users@gromacs.org<br /><a href="http://lists.gromacs.org/mailman/listinfo/gmx-users" target="l">http://lists.gromacs.org/mailman/listinfo/gmx-users</a><br />Please search the archive at <a href="http://www.gromacs.org/Support/Mailing_Lists/Search" target="l">http://www.gromacs.org/Support/Mailing_Lists/Search</a> before posting!<br />Please don't post (un)subscribe requests to the list. Use the <br />www interface or send it to gmx-users-request@gromacs.org.<br />Can't post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" target="l">http://www.gromacs.org/Support/Mailing_Lists</a><br /></div></blockquote>