<div dir="ltr">The hash function is there, and is used for communicator splitting, but does not (yet) implement gmx_hostname_num in release-5-0.<div><br></div><div>Mark</div></div><div class="gmail_extra"><br><br><div class="gmail_quote">
On Thu, May 29, 2014 at 7:02 PM, Szilárd Páll <span dir="ltr">&lt;<a href="mailto:pall.szilard@gmail.com" target="_blank">pall.szilard@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<div class="">On Thu, May 29, 2014 at 6:56 PM, Mark Abraham &lt;<a href="mailto:mark.j.abraham@gmail.com">mark.j.abraham@gmail.com</a>&gt; wrote:<br>
&gt;<br>
&gt; On May 29, 2014 4:53 PM, &quot;Vedran Miletić&quot; &lt;<a href="mailto:rivanvx@gmail.com">rivanvx@gmail.com</a>&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt; 2014-05-29 16:36 GMT+02:00 Anders Gabrielsson &lt;<a href="mailto:andgab@kth.se">andgab@kth.se</a>&gt;:<br>
&gt;&gt; &gt; You&#39;ll probably have to supply -npernode/-ppn too so that your mpirun<br>
&gt;&gt; &gt; doesn&#39;t put all MPI ranks on the same host.<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; /Anders<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; On 29 May 2014, at 13:17, Vedran Miletić &lt;<a href="mailto:rivanvx@gmail.com">rivanvx@gmail.com</a>&gt; wrote:<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Fatal error:<br>
&gt;&gt; &gt; Incorrect launch configuration: mismatching number of PP MPI processes<br>
&gt;&gt; &gt; and GPUs per node.<br>
&gt;&gt; &gt; mdrun_mpi was started with 5 PP MPI processes per node, but you provided<br>
&gt;&gt; &gt; 1<br>
&gt;&gt; &gt; GPU.<br>
&gt;&gt;<br>
&gt;&gt; Hi Anders,<br>
&gt;&gt;<br>
&gt;&gt; thanks for your response. Weirdly enough, mpirun actually doesn&#39;t run<br>
&gt;&gt; processes all on one node, it distributes them as equally as possible,<br>
&gt;&gt; going around your hostfile in a round-robin fashion. (I verified this<br>
&gt;&gt; by running hostname.)<br>
&gt;<br>
&gt; What were the hostnames? There is some logic that tries to reconstruct the<br>
&gt; nodes from hostnames as supplied by MPI, but GROMACS assumes the form<br>
&gt;<br>
&gt; yourmachinename043<br>
&gt;<br>
&gt; with the digits varying across nodes. So far, this has worked, since<br>
&gt; sysadmins are orderly types... IIRC we use a hash in GROMACS 5, or at least<br>
&gt; we talked about it!<br>
<br>
</div>There is hostname hashing implementation (a gmx_hostname_num()) which<br>
I don&#39;t remember anymore what was it implemented for, but neither 4.6<br>
nor (the current) 5.0 uses this is for splitting the MPI_comm_world<br>
into groups of ranks per node.<br>
<div class="HOEnZb"><div class="h5"><br>
&gt; Mark<br>
&gt;<br>
&gt;&gt; However, it seems that for some reason Gromacs assumes mpirun does run<br>
&gt;&gt; 5 processes on a single node. Regardless, i tried<br>
&gt;&gt;<br>
&gt;&gt; mpirun -np 5 -npernode 1 -hostfile ... mdrun_mpi -v -deffnm ... -gpu_id 0<br>
&gt;&gt;<br>
&gt;&gt; but it produces the same error. Anything else I could try?<br>
&gt;&gt;<br>
&gt;&gt; Regards,<br>
&gt;&gt; Vedran<br>
&gt;&gt; --<br>
&gt;&gt; Gromacs Developers mailing list<br>
&gt;&gt;<br>
&gt;&gt; * Please search the archive at<br>
&gt;&gt; <a href="http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List" target="_blank">http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List</a> before<br>
&gt;&gt; posting!<br>
&gt;&gt;<br>
&gt;&gt; * Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" target="_blank">http://www.gromacs.org/Support/Mailing_Lists</a><br>
&gt;&gt;<br>
&gt;&gt; * For (un)subscribe requests visit<br>
&gt;&gt; <a href="https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers" target="_blank">https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers</a> or<br>
&gt;&gt; send a mail to <a href="mailto:gmx-developers-request@gromacs.org">gmx-developers-request@gromacs.org</a>.<br>
&gt;<br>
&gt;<br>
&gt; --<br>
&gt; Gromacs Developers mailing list<br>
&gt;<br>
&gt; * Please search the archive at<br>
&gt; <a href="http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List" target="_blank">http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List</a> before<br>
&gt; posting!<br>
&gt;<br>
&gt; * Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" target="_blank">http://www.gromacs.org/Support/Mailing_Lists</a><br>
&gt;<br>
&gt; * For (un)subscribe requests visit<br>
&gt; <a href="https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers" target="_blank">https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers</a> or<br>
&gt; send a mail to <a href="mailto:gmx-developers-request@gromacs.org">gmx-developers-request@gromacs.org</a>.<br>
--<br>
Gromacs Developers mailing list<br>
<br>
* Please search the archive at <a href="http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List" target="_blank">http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List</a> before posting!<br>
<br>
* Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" target="_blank">http://www.gromacs.org/Support/Mailing_Lists</a><br>
<br>
* For (un)subscribe requests visit<br>
<a href="https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers" target="_blank">https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers</a> or send a mail to <a href="mailto:gmx-developers-request@gromacs.org">gmx-developers-request@gromacs.org</a>.</div>
</div></blockquote></div><br></div>