<p dir="ltr"><br>
On May 29, 2014 4:53 PM, &quot;Vedran Miletić&quot; &lt;<a href="mailto:rivanvx@gmail.com">rivanvx@gmail.com</a>&gt; wrote:<br>
&gt;<br>
&gt; 2014-05-29 16:36 GMT+02:00 Anders Gabrielsson &lt;<a href="mailto:andgab@kth.se">andgab@kth.se</a>&gt;:<br>
&gt; &gt; You&#39;ll probably have to supply -npernode/-ppn too so that your mpirun<br>
&gt; &gt; doesn&#39;t put all MPI ranks on the same host.<br>
&gt; &gt;<br>
&gt; &gt; /Anders<br>
&gt; &gt;<br>
&gt; &gt; On 29 May 2014, at 13:17, Vedran Miletić &lt;<a href="mailto:rivanvx@gmail.com">rivanvx@gmail.com</a>&gt; wrote:<br>
&gt; &gt;<br>
&gt; &gt; Fatal error:<br>
&gt; &gt; Incorrect launch configuration: mismatching number of PP MPI processes<br>
&gt; &gt; and GPUs per node.<br>
&gt; &gt; mdrun_mpi was started with 5 PP MPI processes per node, but you provided 1<br>
&gt; &gt; GPU.<br>
&gt;<br>
&gt; Hi Anders,<br>
&gt;<br>
&gt; thanks for your response. Weirdly enough, mpirun actually doesn&#39;t run<br>
&gt; processes all on one node, it distributes them as equally as possible,<br>
&gt; going around your hostfile in a round-robin fashion. (I verified this<br>
&gt; by running hostname.)</p>
<p dir="ltr">What were the hostnames? There is some logic that tries to reconstruct the nodes from hostnames as supplied by MPI, but GROMACS assumes the form</p>
<p dir="ltr">yourmachinename043</p>
<p dir="ltr">with the digits varying across nodes. So far, this has worked, since sysadmins are orderly types... IIRC we use a hash in GROMACS 5, or at least we talked about it!</p>
<p dir="ltr">Mark</p>
<p dir="ltr">&gt; However, it seems that for some reason Gromacs assumes mpirun does run<br>
&gt; 5 processes on a single node. Regardless, i tried<br>
&gt;<br>
&gt; mpirun -np 5 -npernode 1 -hostfile ... mdrun_mpi -v -deffnm ... -gpu_id 0<br>
&gt;<br>
&gt; but it produces the same error. Anything else I could try?<br>
&gt;<br>
&gt; Regards,<br>
&gt; Vedran<br>
&gt; --<br>
&gt; Gromacs Developers mailing list<br>
&gt;<br>
&gt; * Please search the archive at <a href="http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List">http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List</a> before posting!<br>
&gt;<br>
&gt; * Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists">http://www.gromacs.org/Support/Mailing_Lists</a><br>
&gt;<br>
&gt; * For (un)subscribe requests visit<br>
&gt; <a href="https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers">https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers</a> or send a mail to <a href="mailto:gmx-developers-request@gromacs.org">gmx-developers-request@gromacs.org</a>.</p>