Yes you are right particle decomposition does not work too!<br><br><div class="gmail_quote">On Thu, Sep 30, 2010 at 12:19 AM, XAvier Periole <span dir="ltr">&lt;<a href="mailto:x.periole@rug.nl">x.periole@rug.nl</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;"><div style="word-wrap: break-word;"><div><br></div>What is happening is that you&#39;ve got bonds too long and the <div>
dd can not manage to cut things in 4 subsystems ... </div><div><br></div><div>try particle decomposition but you might end up with the same</div><div>problem :((<br><div><br><div><div><div></div><div class="h5"><div>On Sep 29, 2010, at 5:35 PM, jayant james wrote:</div>
<br></div></div><blockquote type="cite"><div><div></div><div class="h5"><br clear="all">Hi!<br>I am trying to perform distance restrained MD simulations of a protein with Gromacs4.0.5.<br>I have a bunch of FRET distances ranging from 10Angs to 40 angs that I am incorporating simular to NOE distance restraints in NMR.<br>
 When I use one processor for the simulations its all fine, but, when I use multiple processors I get a bunch of errors<br>lets me start with the &quot;NOTE&quot; found below. Well do not want to increase the cut-off distance but want the program to use multiple processors. How can I overcome this problem?<br>
I would appreciate your input<br>Thanks<br>JJ<br><br><span style="color: rgb(255, 0, 0);">NOTE: atoms involved in distance restraints should be within the longest cut-off distance, if this is not the case mdrun generates a fatal error, in that case use particle decomposition (mdrun option -pd)</span><br style="color: rgb(255, 0, 0);">
 <br style="color: rgb(255, 0, 0);"><br style="color: rgb(255, 0, 0);"><span style="color: rgb(255, 0, 0);">WARNING: Can not write distance restraint data to energy file with domain decomposition</span><br style="color: rgb(255, 0, 0);">
 <span style="color: rgb(255, 0, 0);">Loaded with Money</span><br style="color: rgb(255, 0, 0);"><br style="color: rgb(255, 0, 0);"><br style="color: rgb(255, 0, 0);"><span style="color: rgb(255, 0, 0);">-------------------------------------------------------</span><br style="color: rgb(255, 0, 0);">
 <span style="color: rgb(255, 0, 0);">Program mdrun_mpi, VERSION 4.0.5</span><br style="color: rgb(255, 0, 0);"><span style="color: rgb(255, 0, 0);">Source code file: ../../../src/mdlib/domdec.c, line: 5873</span><br style="color: rgb(255, 0, 0);">
 <br style="color: rgb(255, 0, 0);"><span style="color: rgb(255, 0, 0);">Fatal error:</span><br style="color: rgb(255, 0, 0);"><span style="color: rgb(255, 0, 0);">There is no domain decomposition for 4 nodes that is compatible with the given box and a minimum cell size of 8.89355 nm</span><br style="color: rgb(255, 0, 0);">
 <span style="color: rgb(255, 0, 0);">Change the number of nodes or mdrun option -rdd or -dds</span><br style="color: rgb(255, 0, 0);"><span style="color: rgb(255, 0, 0);">Look in the log file for details on the domain decomposition</span><br style="color: rgb(255, 0, 0);">
 <span style="color: rgb(255, 0, 0);">-------------------------------------------------------</span><br style="color: rgb(255, 0, 0);"><br style="color: rgb(255, 0, 0);"><span style="color: rgb(255, 0, 0);">&quot;What Kind Of Guru are You, Anyway ?&quot; (F. Zappa)</span><br style="color: rgb(255, 0, 0);">
 <br style="color: rgb(255, 0, 0);"><span style="color: rgb(255, 0, 0);">Error on node 0, will try to stop all the nodes</span><br style="color: rgb(255, 0, 0);"><span style="color: rgb(255, 0, 0);">Halting parallel program mdrun_mpi on CPU 0 out of 4</span><br style="color: rgb(255, 0, 0);">
 <br style="color: rgb(255, 0, 0);"><span style="color: rgb(255, 0, 0);">gcq#21: &quot;What Kind Of Guru are You, Anyway ?&quot; (F. Zappa)</span><br style="color: rgb(255, 0, 0);"><br style="color: rgb(255, 0, 0);"><span style="color: rgb(255, 0, 0);">--------------------------------------------------------------------------</span><br style="color: rgb(255, 0, 0);">
 <span style="color: rgb(255, 0, 0);">mpirun has exited due to process rank 2 with PID 28700 on</span><br style="color: rgb(255, 0, 0);"><span style="color: rgb(255, 0, 0);">node compute-3-73.local exiting without calling &quot;finalize&quot;. This may</span><br style="color: rgb(255, 0, 0);">
 <span style="color: rgb(255, 0, 0);">have caused other processes in the application to be</span><br style="color: rgb(255, 0, 0);"><span style="color: rgb(255, 0, 0);">terminated by signals sent by mpirun (as reported here).</span><br style="color: rgb(255, 0, 0);">
 <span style="color: rgb(255, 0, 0);">-------------------------------------------------------------------------</span><br style="color: rgb(255, 0, 0);"><span style="color: rgb(255, 0, 0);">MPI_ABORT was invoked on rank 0 in communicator MPI_COMM_WORLD</span><br style="color: rgb(255, 0, 0);">
 <span style="color: rgb(255, 0, 0);">with errorcode -1.</span><br style="color: rgb(255, 0, 0);"><br style="color: rgb(255, 0, 0);"><span style="color: rgb(255, 0, 0);">NOTE: invoking MPI_ABORT causes Open MPI to kill all MPI processes.</span><br style="color: rgb(255, 0, 0);">
 <span style="color: rgb(255, 0, 0);">You may or may not see output from other processes, depending on</span><br style="color: rgb(255, 0, 0);"><span style="color: rgb(255, 0, 0);">exactly when Open MPI kills them.</span><br style="color: rgb(255, 0, 0);">
 <span style="color: rgb(255, 0, 0);">--------------------------------------------------------------------------</span><br style="color: rgb(255, 0, 0);"><br><br><br><br><br><br><br><br>-- <br>Jayasundar Jayant James<br><br>
 <a href="http://www.chick.com/reading/tracts/0096/0096_01.asp" target="_blank">www.chick.com/reading/tracts/0096/0096_01.asp</a>) <br><br></div></div><div class="im"> -- <br>gmx-users mailing list    <a href="mailto:gmx-users@gromacs.org" target="_blank">gmx-users@gromacs.org</a><br>
<a href="http://lists.gromacs.org/mailman/listinfo/gmx-users" target="_blank">http://lists.gromacs.org/mailman/listinfo/gmx-users</a><br>Please search the archive at <a href="http://www.gromacs.org/Support/Mailing_Lists/Search" target="_blank">http://www.gromacs.org/Support/Mailing_Lists/Search</a> before posting!<br>
Please don&#39;t post (un)subscribe requests to the list. Use the <br>www interface or send it to <a href="mailto:gmx-users-request@gromacs.org" target="_blank">gmx-users-request@gromacs.org</a>.<br>Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" target="_blank">http://www.gromacs.org/Support/Mailing_Lists</a></div>
</blockquote></div><br></div></div></div><br>--<br>
gmx-users mailing list    <a href="mailto:gmx-users@gromacs.org">gmx-users@gromacs.org</a><br>
<a href="http://lists.gromacs.org/mailman/listinfo/gmx-users" target="_blank">http://lists.gromacs.org/mailman/listinfo/gmx-users</a><br>
Please search the archive at <a href="http://www.gromacs.org/Support/Mailing_Lists/Search" target="_blank">http://www.gromacs.org/Support/Mailing_Lists/Search</a> before posting!<br>
Please don&#39;t post (un)subscribe requests to the list. Use the<br>
www interface or send it to <a href="mailto:gmx-users-request@gromacs.org">gmx-users-request@gromacs.org</a>.<br>
Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" target="_blank">http://www.gromacs.org/Support/Mailing_Lists</a><br></blockquote></div><br><br clear="all"><br>-- <br>Jayasundar Jayant James<br>
<br><a href="http://www.chick.com/reading/tracts/0096/0096_01.asp">www.chick.com/reading/tracts/0096/0096_01.asp</a>) <br><br>