Hi Berk, <br>Thanks for your suggestion, It is working well now, Can you explain Why it didn&#39;t worked for prime number?<br><br><br>Thanks &amp; Regards,<br>Vivek<br><div class="gmail_quote">2009/9/25 Berk Hess <span dir="ltr">&lt;<a href="mailto:gmx3@hotmail.com">gmx3@hotmail.com</a>&gt;</span><br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">



<div>
Hi,<br><br>Why do you want to run on exactly 57 nodes?<br>That is a nasty prime number.<br>I guess 56 or 60 nodes would work fine.<br><br>Berk<br><br><hr>Date: Fri, 25 Sep 2009 14:39:27 +0530<br>From: <a href="mailto:viveksharma.iitb@gmail.com" target="_blank">viveksharma.iitb@gmail.com</a><br>
To: <a href="mailto:gmx-users@gromacs.org" target="_blank">gmx-users@gromacs.org</a><br>Subject: [gmx-users] Error while scaling mdrun for more number of nodes.<div><div></div><div class="h5"><br><br>Hi There,<br>I was trying to rum mdrun on large number of nodes. When I tried the run on 57 nodes, I got an error which is pasted below.<br>
-------------------------------------------------------<br>Program mpi_mdrun_d, VERSION 4.0.3<br>
Source code file: domdec_setup.c, line: 147<br><br>Fatal error:<br>Could not find an appropriate number of separate PME nodes. i.e. &gt;= 0.409991*#nodes (44) and &lt;= #nodes/2 (57) and reasonable performance wise (grid_x=63, grid_y=63).  <br>

Use the -npme option of mdrun or change the number of processors or the PME grid dimensions, see the manual for details.<br>-------------------------------------------------------<br>then I tried with -npme option as &quot;-npme 20&quot;, this time it failed with the following error.<br>

-------------------------------------------------------<br>Program mpi_mdrun_d, VERSION 4.0.3<br>Source code file: domdec.c, line: 5858<br><br>Fatal error:<br>There is no domain decomposition for 94 nodes that is compatible with the given box and a minimum cell size of 1.025 nm<br>

Change the number of nodes or mdrun option -rcon or -dds or your LINCS settings<br>Look in the log file for details on the domain decomposition<br>-------------------------------------------------------<br>Same system was running fine when I tried it on 4 nodes.<br>

I havn&#39;t used gromacs4.0 very well, so i don&#39;t understand these errors.<br>Please suggest me a way to get out of these errors, It will be really helpful if anybody can explain me these errors.<br><br>With thanks in advance.<br>

<br>Thanks &amp; Regards,<br>Vivek<br>                                               <br></div></div><hr>What can you do with the new Windows Live? <a href="http://www.microsoft.com/windows/windowslive/default.aspx" target="_blank">Find out</a></div>
<br>_______________________________________________<br>
gmx-users mailing list    <a href="mailto:gmx-users@gromacs.org">gmx-users@gromacs.org</a><br>
<a href="http://lists.gromacs.org/mailman/listinfo/gmx-users" target="_blank">http://lists.gromacs.org/mailman/listinfo/gmx-users</a><br>
Please search the archive at <a href="http://www.gromacs.org/search" target="_blank">http://www.gromacs.org/search</a> before posting!<br>
Please don&#39;t post (un)subscribe requests to the list. Use the<br>
www interface or send it to <a href="mailto:gmx-users-request@gromacs.org">gmx-users-request@gromacs.org</a>.<br>
Can&#39;t post? Read <a href="http://www.gromacs.org/mailing_lists/users.php" target="_blank">http://www.gromacs.org/mailing_lists/users.php</a><br></blockquote></div><br>