<div>Hi,</div><div><br></div>4.5beta compiled without MPI uses by defaults all cores using threads. You can run it with &quot;mdrun -nt 1&quot; to run only on one core and thus avoid parallelization errors. Why the minimum cell size is 6.6nm (which is huge) I&#39;m not sure. It should write in the log file why mdrun computed the minimum cell size to be that big.<div>

<br></div><div>Roland<br><br><div class="gmail_quote">On Wed, Aug 25, 2010 at 10:35 PM, zhongjin <span dir="ltr">&lt;<a href="mailto:zhongjin1000@yahoo.com.cn">zhongjin1000@yahoo.com.cn</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">

<table cellspacing="0" cellpadding="0" border="0"><tbody><tr><td valign="top" style="font:inherit"><div><font style="background-color:#cce8cf">Hi,</font></div>
<div><font style="background-color:#cce8cf">  I am doing a minimization in GMX 4.5-beta3. The system includes 256 DPPC and  9899 SOL. I used a command:</font></div>
<div> mdrun -v -deffnm min </div>
<div>Then an error occured,</div>
<div>Program mdrun_mpi, VERSION 4.5-beta3<br>Source code file: domdec.c, line: 6428</div>
<div>Fatal error:<br>There is no domain decomposition for 8 nodes that is compatible with the given box and a minimum cell size of 6.62125 nm<br>Change the number of nodes or mdrun option -rdd<br>Look in the log file for details on the domain decomposition<br>

For more information and tips for troubleshooting, please check the GROMACS<br>website at <a href="http://www.gromacs.org/Documentation/Errors" target="_blank">http://www.gromacs.org/Documentation/Errors</a><br>-------------------------------------------------------</div>


<div> </div>
<div>And then I try another command :</div>
<div> mpiexec -n 8 mdrun_mpi -deffnm min &lt;/dev/null</div>
<div>The same error occured.</div>
<div> </div>
<div> What&#39;s wrong? I have never come across such a error  in GMX 4.0.7. Anybody could help me ? Thanks!</div>
<div> Zhongjin He </div></td></tr></tbody></table><font color="#888888"><br>






       </font><br>--<br>
gmx-users mailing list    <a href="mailto:gmx-users@gromacs.org">gmx-users@gromacs.org</a><br>
<a href="http://lists.gromacs.org/mailman/listinfo/gmx-users" target="_blank">http://lists.gromacs.org/mailman/listinfo/gmx-users</a><br>
Please search the archive at <a href="http://www.gromacs.org/search" target="_blank">http://www.gromacs.org/search</a> before posting!<br>
Please don&#39;t post (un)subscribe requests to the list. Use the<br>
www interface or send it to <a href="mailto:gmx-users-request@gromacs.org">gmx-users-request@gromacs.org</a>.<br>
Can&#39;t post? Read <a href="http://www.gromacs.org/mailing_lists/users.php" target="_blank">http://www.gromacs.org/mailing_lists/users.php</a><br></blockquote></div><br><br clear="all"><br>-- <br>ORNL/UT Center for Molecular Biophysics <a href="http://cmb.ornl.gov">cmb.ornl.gov</a><br>

865-241-1537, ORNL PO BOX 2008 MS6309<br>
</div>