Justin,<br><br>The whole error was<br><br>Reading file md_rest1.tpr, VERSION 4.5.5 (single precision)<br><br>NOTE: atoms involved in distance restraints should be within the longest cut-of$<br><br><br>-------------------------------------------------------<br>
Program mdrun_mpi_d.openmpi, VERSION 4.5.5<br>Source code file: /tmp/build/gromacs-4.5.5/src/gmxlib/disre.c, line: 143<br><br>Fatal error:<br>Time or ensemble averaged or multiple pair distance restraints do not work (yet$<br>
For more information and tips for troubleshooting, please check the GROMACS<br>website at <a href="http://www.gromacs.org/Documentation/Errors">http://www.gromacs.org/Documentation/Errors</a><br>-------------------------------------------------------<br>
<br>&quot;Gabba Gabba Hey!&quot; (The Ramones)<br><br>Error on node 5, will try to stop all the nodes<br>Halting parallel program mdrun_mpi_d.openmpi on CPU 5 out of 12<br><br>-------------------------------------------------------<br>
<br>and so on for each CPU :)<br><br>Might it be with some PME order ? I&#39;ve recieved errors about wrong PME order when tried to lauch my simulations on big ammoun of the nodes but could not find possible way to fix it :(<br>
<br><br>James<br><br><div class="gmail_quote">14 марта 2012&nbsp;г. 19:43 пользователь Justin A. Lemkul <span dir="ltr">&lt;<a href="mailto:jalemkul@vt.edu">jalemkul@vt.edu</a>&gt;</span> написал:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<div class="HOEnZb"><div class="h5"><br>
<br>
James Starlight wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Mark,<br>
<br>
<br>
My restrains on topology consist of the next section<br>
<br>
; Include Position restraint file<br>
#ifdef POSRES<br>
#include &quot;posre.itp&quot;<br>
#endif<br>
<br>
[ dihedral_restraints ]<br>
; ai &nbsp; aj &nbsp; &nbsp;ak &nbsp; &nbsp;al &nbsp;type &nbsp;label &nbsp;phi &nbsp;dphi &nbsp;kfac &nbsp;power<br>
; Chi N - CA - CB - CG<br>
 &nbsp;2908 &nbsp; &nbsp;2910 &nbsp; &nbsp; 2911 &nbsp; &nbsp;2912 &nbsp; &nbsp; 1 &nbsp; &nbsp; &nbsp;1 &nbsp;180 &nbsp; &nbsp; 0 &nbsp; &nbsp; 1 &nbsp; &nbsp; &nbsp;2<br>
<br>
[ distance_restraints ]<br>
; ai aj type index type&rsquo; low up1 up2 fac<br>
 &nbsp;1097 3201 1 &nbsp; &nbsp;1 &nbsp; &nbsp; 1 &nbsp; &nbsp; 0.796 0.841 0.900 1.0<br>
 &nbsp;2948 3201 1 &nbsp; &nbsp;2 &nbsp; &nbsp; 1 &nbsp; &nbsp; 0.796 0.841 0.900 1.0<br>
 &nbsp;1097 2948 1 &nbsp; &nbsp;3 &nbsp; &nbsp; 1 &nbsp; &nbsp; 0.796 0.841 0.900 1.0<br>
 &nbsp;1097 2999 1 &nbsp; &nbsp;4 &nbsp; &nbsp; 1 &nbsp; &nbsp; 0.800 1.000 1.100 1.0<br>
 &nbsp;1098 2034 1 &nbsp; &nbsp;5 &nbsp; &nbsp; 1 &nbsp; &nbsp; 0.800 1.000 1.100 1.0<br>
 &nbsp;1098 2042 1 &nbsp; &nbsp;6 &nbsp; &nbsp; 1 &nbsp; &nbsp; 0.800 1.000 1.100 1.0<br>
 &nbsp;1098 2067 1 &nbsp; &nbsp;7 &nbsp; &nbsp; 1 &nbsp; &nbsp; 0.800 1.000 1.100 1.0<br>
 &nbsp;1130 3241 1 &nbsp; &nbsp;8 &nbsp; &nbsp; 1 &nbsp; &nbsp; 0.540 0.630 0.700 1.0<br>
 &nbsp;546 &nbsp;3393 1 &nbsp; &nbsp;9 &nbsp; &nbsp; 1 &nbsp; &nbsp; 1.162 1.725 1.800 1.0<br>
 &nbsp;628 &nbsp;3460 1 &nbsp; &nbsp;10 &nbsp; &nbsp; 1 &nbsp; &nbsp; 1.438 2.067 2.100 1.0<br>
 &nbsp;637 &nbsp;3460 1 &nbsp; &nbsp;11 &nbsp; &nbsp; 1 &nbsp; &nbsp; 0.700 1.238 1.300 1.0<br>
 &nbsp;648 &nbsp;2791 1 &nbsp; &nbsp;12 &nbsp; &nbsp; 1 &nbsp; &nbsp; 1.788 2.152 2.200 1.0<br>
 &nbsp;648 &nbsp;3376 1 &nbsp; &nbsp;13 &nbsp; &nbsp; 1 &nbsp; &nbsp; 1.736 2.061 2.150 1.0<br>
 &nbsp;2292 2743 1 &nbsp; &nbsp;14 &nbsp; &nbsp; 1 &nbsp; &nbsp; 0.200 0.300 0.350 1.0<br>
 &nbsp;1258 2203 1 &nbsp; &nbsp;15 &nbsp; &nbsp; 1 &nbsp; &nbsp; 0.200 0.300 0.350 1.0<br>
<br>
Also I&#39;ve attached my md.mdp file.<br>
<br>
I have no problems with that system on my home desktop.<br>
<br>
On cluster with installed MPI I&#39;ve lunch my simulation by means of below command<br>
<br>
grompp -f md.mdp -c nvtWprotonated.gro -p topol.top -n index.ndx -o md_50ns.tpr<br>
<br>
mpiexec -np 24 mdrun_mpi_d.openmpi -v -deffnm md_50ns<br>
<br>
<br>
I&#39;ll be very thankful if you show me what&#39;s wrong could be with my initial systems because I have no any problems with my systems on my home desktop. On the other hand on Cluster some of my jobs ends with the errors ( something wrong with PME order or the error wich I&#39;ve shown you with the ensembles of restrains)<br>

<br>
It was installed the same last version of Gromacs on cluster like on my desctop ( difference only in double precission with lack on my home desctop but present on cluster)<br>
<br>
Could you tell me in what log files I could obtain more detailed information of the source of such erors? I&#39;ve checked only md.log as well as name_of_the_simulation.log. Besides there are files gromacs.err wich contain information about crashed simulation.<br>

<br>
<br>
</blockquote>
<br></div></div>
You didn&#39;t include the whole error in your first message, which should read &quot;Time or ensemble averaged or multiple pair distance restraints do not work (yet) with domain decomposition, use particle decomposition (mdrun option -pd)&quot;<br>

<br>
Thus the error message tells you how to proceed.<div class="im HOEnZb"><br>
<br>
-Justin<br>
<br>
-- <br>
==============================<u></u>==========<br>
<br>
Justin A. Lemkul<br>
Ph.D. Candidate<br>
ICTAS Doctoral Scholar<br>
MILES-IGERT Trainee<br>
Department of Biochemistry<br>
Virginia Tech<br>
Blacksburg, VA<br>
jalemkul[at]<a href="http://vt.edu" target="_blank">vt.edu</a> | (540) 231-9080<br>
<a href="http://www.bevanlab.biochem.vt.edu/Pages/Personal/justin" target="_blank">http://www.bevanlab.biochem.<u></u>vt.edu/Pages/Personal/justin</a><br>
<br>
==============================<u></u>==========<br></div><div class="HOEnZb"><div class="h5">
-- <br>
gmx-users mailing list &nbsp; &nbsp;<a href="mailto:gmx-users@gromacs.org" target="_blank">gmx-users@gromacs.org</a><br>
<a href="http://lists.gromacs.org/mailman/listinfo/gmx-users" target="_blank">http://lists.gromacs.org/<u></u>mailman/listinfo/gmx-users</a><br>
Please search the archive at <a href="http://www.gromacs.org/Support/Mailing_Lists/Search" target="_blank">http://www.gromacs.org/<u></u>Support/Mailing_Lists/Search</a> before posting!<br>
Please don&#39;t post (un)subscribe requests to the list. Use the www interface or send it to <a href="mailto:gmx-users-request@gromacs.org" target="_blank">gmx-users-request@gromacs.org</a>.<br>
Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" target="_blank">http://www.gromacs.org/<u></u>Support/Mailing_Lists</a><br>
</div></div></blockquote></div><br>