Dear Gromacs,<br><br>My colleague has attempted to issue this command:<br><br><br>mpirun -np 8 (or 7) mdrun_mpi ...... (etc)<br><br><br>According to him, he gets the following error message:<br><br><br>MPI_ABORT was invoked on rank 0 in communicator MPI_COMM_WORLD           <br>


with errorcode -1.<br><br>NOTE: invoking MPI_ABORT causes Open MPI to kill all MPI processes.<br>You may or may not see output from other processes, depending on    <br>exactly when Open MPI kills them.<br>------------------------------<div id=":w8">

--------------------------------------------<br>
<br>-------------------------------------------------------              <br>Program mdrun_mpi, VERSION 4.0.7<br>Source code file: domdec.c, line: 5888<br><br>Fatal error:<br>There is no domain decomposition for 7 nodes that is compatible with the given box and a minimum cell size of 0.955625 nm<br>


Change the number of nodes or mdrun option -rcon or -dds or your LINCS settings</div><br><br>However, when he uses say, -np 6, he seems to get no error. Any insight on why this might be happening?<br><br>Also, when he saves the output to a file, sometimes he sees the following:<br>

<br><br>NOTE: Turning on dynamic load balancing<br><br><br>Is this another flag that might be causing the crash? What does that line mean?<br><br>Thanks!<br>Justin<br>