<br clear="all">Hi!<br>I am trying to perform distance restrained MD simulations of a protein with Gromacs4.0.5.<br>I have a bunch of FRET distances ranging from 10Angs to 40 angs that I am incorporating simular to NOE distance restraints in NMR.<br>
When I use one processor for the simulations its all fine, but, when I use multiple processors I get a bunch of errors<br>lets me start with the &quot;NOTE&quot; found below. Well do not want to increase the cut-off distance but want the program
to use multiple processors. How can I overcome this problem?<br>I would appreciate your input<br>Thanks<br>JJ<br><br><span style="color: rgb(255, 0, 0);">NOTE: atoms involved in distance restraints should be within the longest cut-off distance, if this is not the case mdrun generates a fatal error, in that case use particle decomposition (mdrun option -pd)</span><br style="color: rgb(255, 0, 0);">
<br style="color: rgb(255, 0, 0);"><br style="color: rgb(255, 0, 0);"><span style="color: rgb(255, 0, 0);">WARNING: Can not write distance restraint data to energy file with domain decomposition</span><br style="color: rgb(255, 0, 0);">
<span style="color: rgb(255, 0, 0);">Loaded with Money</span><br style="color: rgb(255, 0, 0);"><br style="color: rgb(255, 0, 0);"><br style="color: rgb(255, 0, 0);"><span style="color: rgb(255, 0, 0);">-------------------------------------------------------</span><br style="color: rgb(255, 0, 0);">
<span style="color: rgb(255, 0, 0);">Program mdrun_mpi, VERSION 4.0.5</span><br style="color: rgb(255, 0, 0);"><span style="color: rgb(255, 0, 0);">Source code file: ../../../src/mdlib/domdec.c, line: 5873</span><br style="color: rgb(255, 0, 0);">
<br style="color: rgb(255, 0, 0);"><span style="color: rgb(255, 0, 0);">Fatal error:</span><br style="color: rgb(255, 0, 0);"><span style="color: rgb(255, 0, 0);">There is no domain decomposition for 4 nodes that is compatible with the given box and a minimum cell size of 8.89355 nm</span><br style="color: rgb(255, 0, 0);">
<span style="color: rgb(255, 0, 0);">Change the number of nodes or mdrun option -rdd or -dds</span><br style="color: rgb(255, 0, 0);"><span style="color: rgb(255, 0, 0);">Look in the log file for details on the domain decomposition</span><br style="color: rgb(255, 0, 0);">
<span style="color: rgb(255, 0, 0);">-------------------------------------------------------</span><br style="color: rgb(255, 0, 0);"><br style="color: rgb(255, 0, 0);"><span style="color: rgb(255, 0, 0);">&quot;What Kind Of Guru are You, Anyway ?&quot; (F. Zappa)</span><br style="color: rgb(255, 0, 0);">
<br style="color: rgb(255, 0, 0);"><span style="color: rgb(255, 0, 0);">Error on node 0, will try to stop all the nodes</span><br style="color: rgb(255, 0, 0);"><span style="color: rgb(255, 0, 0);">Halting parallel program mdrun_mpi on CPU 0 out of 4</span><br style="color: rgb(255, 0, 0);">
<br style="color: rgb(255, 0, 0);"><span style="color: rgb(255, 0, 0);">gcq#21: &quot;What Kind Of Guru are You, Anyway ?&quot; (F. Zappa)</span><br style="color: rgb(255, 0, 0);"><br style="color: rgb(255, 0, 0);"><span style="color: rgb(255, 0, 0);">--------------------------------------------------------------------------</span><br style="color: rgb(255, 0, 0);">
<span style="color: rgb(255, 0, 0);">mpirun has exited due to process rank 2 with PID 28700 on</span><br style="color: rgb(255, 0, 0);"><span style="color: rgb(255, 0, 0);">node compute-3-73.local exiting without calling &quot;finalize&quot;. This may</span><br style="color: rgb(255, 0, 0);">
<span style="color: rgb(255, 0, 0);">have caused other processes in the application to be</span><br style="color: rgb(255, 0, 0);"><span style="color: rgb(255, 0, 0);">terminated by signals sent by mpirun (as reported here).</span><br style="color: rgb(255, 0, 0);">
<span style="color: rgb(255, 0, 0);">-------------------------------------------------------------------------</span><br style="color: rgb(255, 0, 0);"><span style="color: rgb(255, 0, 0);">MPI_ABORT was invoked on rank 0 in communicator MPI_COMM_WORLD</span><br style="color: rgb(255, 0, 0);">
<span style="color: rgb(255, 0, 0);">with errorcode -1.</span><br style="color: rgb(255, 0, 0);"><br style="color: rgb(255, 0, 0);"><span style="color: rgb(255, 0, 0);">NOTE: invoking MPI_ABORT causes Open MPI to kill all MPI processes.</span><br style="color: rgb(255, 0, 0);">
<span style="color: rgb(255, 0, 0);">You may or may not see output from other processes, depending on</span><br style="color: rgb(255, 0, 0);"><span style="color: rgb(255, 0, 0);">exactly when Open MPI kills them.</span><br style="color: rgb(255, 0, 0);">
<span style="color: rgb(255, 0, 0);">--------------------------------------------------------------------------</span><br style="color: rgb(255, 0, 0);"><br><br><br><br><br><br><br><br>-- <br>Jayasundar Jayant James<br><br>
<a href="http://www.chick.com/reading/tracts/0096/0096_01.asp">www.chick.com/reading/tracts/0096/0096_01.asp</a>) <br><br>