<div><br></div><font style="color:rgb(79,107,114);font-family:arial,verdana,helvetica;font-size:12px;line-height:18px;background-color:rgb(255,255,255)">&quot;The minimum cell size is controlled by the size of the largest charge group or bonded interaction and the largest of </font><code style="font-family:&#39;Lucida Console&#39;,Courier,monospace;font-size:14px;color:rgb(0,52,113);background-color:rgb(255,255,255)">rvdw</code><font style="color:rgb(79,107,114);font-family:arial,verdana,helvetica;font-size:12px;line-height:18px;background-color:rgb(255,255,255)">, </font><code style="font-family:&#39;Lucida Console&#39;,Courier,monospace;font-size:14px;color:rgb(0,52,113);background-color:rgb(255,255,255)">rlist</code><font style="color:rgb(79,107,114);font-family:arial,verdana,helvetica;font-size:12px;line-height:18px;background-color:rgb(255,255,255)"> and </font><code style="font-family:&#39;Lucida Console&#39;,Courier,monospace;font-size:14px;color:rgb(0,52,113);background-color:rgb(255,255,255)">rcoulomb</code><font style="color:rgb(79,107,114);font-family:arial,verdana,helvetica;font-size:12px;line-height:18px;background-color:rgb(255,255,255)">, some other effects of bond constraints, and a safety margin. <b>Thus it is not possible to run a small simulation with large numbers of processors.</b>&quot;</font><div>
<font color="#4f6b72" face="arial, verdana, helvetica"><span style="font-size:12px;line-height:18px"><br></span></font></div><div><font color="#4f6b72" face="arial, verdana, helvetica"><span style="font-size:12px;line-height:18px">Based on the information you provided, the only thing I can say is, MAYBE your system is &quot;too small&quot; to run with 256 processors.</span></font></div>
<div><font color="#4f6b72" face="arial, verdana, helvetica"><span style="font-size:12px;line-height:18px"><br></span></font></div><div><font color="#4f6b72" face="arial, verdana, helvetica"><span style="font-size:12px;line-height:18px">Cheers</span></font></div>
<div><font color="#4f6b72" face="arial, verdana, helvetica"><span style="font-size:12px;line-height:18px"><br></span></font></div><div><font color="#4f6b72" face="arial, verdana, helvetica"><span style="font-size:12px;line-height:18px">Terry</span></font></div>
<div><font color="#4f6b72" face="arial, verdana, helvetica"><span style="font-size:12px;line-height:18px"><br></span></font><br><div class="gmail_quote">On Fri, Jan 6, 2012 at 3:45 PM, Albert <span dir="ltr">&lt;<a href="mailto:mailmd2011@gmail.com">mailmd2011@gmail.com</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">thank you very much for kind reply.<br>
<br>
I change my command as following:<br>
<br>
mpirun -exe /opt/gromacs/4.5.5/bin/mdrun_<u></u>mpi_bg -args &quot;-nosum -dlb yes -v -s npt.tpr -nt 1&quot; -mode VN -np 256<br>
<br>
the &quot;-nt 1&quot; option has been added above. but it still doesn&#39;t work and here is the log file<br>
<br>
<br>
<br>
<br>
Initializing Domain Decomposition on 256 nodes<br>
Dynamic load balancing: yes<br>
Will sort the charge groups at every domain (re)decomposition<br>
Initial maximum inter charge-group distances:<br>
    two-body bonded interactions: 0.435 nm, LJ-14, atoms 1853 1861<br>
  multi-body bonded interactions: 0.435 nm, Proper Dih., atoms 1853 1861<br>
Minimum cell size due to bonded interactions: 0.478 nm<br>
Maximum distance for 5 constraints, at 120 deg. angles, all-trans: 0.819 nm<br>
Estimated maximum distance required for P-LINCS: 0.819 nm<br>
This distance will limit the DD cell size, you can override this with -rcon<br>
Guess for relative PME load: 0.21<div class="im"><br>
Will use 192 particle-particle and 64 PME only nodes<br>
This is a guess, check the performance at the end of the log file<br></div>
Using 64 separate PME nodes<br>
Scaling the initial minimum size with 1/0.8 (option -dds) = 1.25<br>
Optimizing the DD grid for 192 cells with a minimum initial size of 1.024 nm<br>
The maximum allowed number of cells is: X 7 Y 7 Z 7<div class="im"><br>
<br>
------------------------------<u></u>-------------------------<br>
Program mdrun_mpi_bg, VERSION 4.5.5<br>
Source code file: ../../../src/mdlib/domdec.c, line: 6436<br>
<br>
Fatal error:<br>
There is no domain decomposition for 192 nodes that is compatible with the given box and a minimum cell size of<br>
 1.02425 nm<br>
Change the number of nodes or mdrun option -rcon or -dds or your LINCS settings<br>
Look in the log file for details on the domain decomposition<br>
For more information and tips for troubleshooting, please check the GROMACS<br>
website at <a href="http://www.gromacs.org/Documentation/Errors" target="_blank">http://www.gromacs.org/<u></u>Documentation/Errors</a><br>
------------------------------<u></u>-------------------------<br>
<br></div>
&quot;It&#39;s So Fast It&#39;s Slow&quot; (F. Black)<div class="HOEnZb"><div class="h5"><br>
<br>
-- <br>
gmx-users mailing list    <a href="mailto:gmx-users@gromacs.org" target="_blank">gmx-users@gromacs.org</a><br>
<a href="http://lists.gromacs.org/mailman/listinfo/gmx-users" target="_blank">http://lists.gromacs.org/<u></u>mailman/listinfo/gmx-users</a><br>
Please search the archive at <a href="http://www.gromacs.org/Support/Mailing_Lists/Search" target="_blank">http://www.gromacs.org/<u></u>Support/Mailing_Lists/Search</a> before posting!<br>
Please don&#39;t post (un)subscribe requests to the list. Use the www interface or send it to <a href="mailto:gmx-users-request@gromacs.org" target="_blank">gmx-users-request@gromacs.org</a>.<br>
Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" target="_blank">http://www.gromacs.org/<u></u>Support/Mailing_Lists</a><br>
</div></div></blockquote></div><br></div>