<div>Thanks Florian</div>
<div>this is how I tried to invoke the mdrun with mpirun:</div>
<div>&nbsp;</div>
<div>mpirun -nolocal -machinefile $PBS_NODESFILE mdrun -np * -v -s ...</div>
<div>&nbsp;</div>
<div>the administrator said the&nbsp;three options for mpirun must be added (-nolocal, -machinefile, $PBS_NODESFILE)</div>
<div>now I&#39;m trying to follow the steps in the webpage you gave to me</div>
<div>&nbsp;<br><br>&nbsp;</div>
<div><span class="gmail_quote">On 10/1/07, <b class="gmail_sendername">Florian Haberl</b> &lt;<a href="mailto:Florian.Haberl@chemie.uni-erlangen.de">Florian.Haberl@chemie.uni-erlangen.de</a>&gt; wrote:</span>
<blockquote class="gmail_quote" style="PADDING-LEFT: 1ex; MARGIN: 0px 0px 0px 0.8ex; BORDER-LEFT: #ccc 1px solid">Hi,<br><br>On Sunday, 30. September 2007 19:12, liu xin wrote:<br>&gt; Thanks Mark<br>&gt;<br>&gt; But there&#39;s no standard error output at all for my problem, it seems mdrun
<br>&gt; stagnated at this point, I dont know if anybody had met this situation<br>&gt; before...and now I&#39;m compiling LAMMPI as you suggested, hope this works for<br>&gt; me.<br><br>does your calculation run with PBS or any queuing system?
<br>You can try to run mpirun or others like mpiexec with a verbose option.<br><br>In your previous mail you wrote something about running jobs with mpd, is it<br>your queuing system<br>(<a href="http://www-unix.mcs.anl.gov/mpi/mpich1/docs/mpichntman/node39.htm">
http://www-unix.mcs.anl.gov/mpi/mpich1/docs/mpichntman/node39.htm</a>), i don`t<br>know if its outdated (webpage seems so).<br><br><br>Here gromacs run without problems with different mpi implementations also with<br>intel-mpi, mvapich.
<br><br>&gt;<br>&gt; On 10/1/07, Mark Abraham &lt;<a href="mailto:Mark.Abraham@anu.edu.au">Mark.Abraham@anu.edu.au</a>&gt; wrote:<br>&gt; &gt; liu xin wrote:<br>&gt; &gt; &gt; Dear GMXers<br>&gt; &gt; &gt;<br>&gt; &gt; &gt; my mdrun stops when I try to do it with 8 nodes, but there&#39;s no error
<br>&gt; &gt; &gt; message, here&#39;s the end of the md0.log:<br>&gt; &gt;<br>&gt; &gt; The log file won&#39;t be helpful if the problem is outside of GROMACS, and<br>&gt; &gt; the fact that it isn&#39;t helpful is strongly diagnostic of that. You need
<br>&gt; &gt; the standard error to diagnose what your system problem is.<br>&gt; &gt;<br>&gt; &gt; &gt; &quot;B. Hess and H. Bekker and H. J. C. Berendsen and J. G. E. M. Fraaije<br>&gt; &gt; &gt; LINCS: A Linear Constraint Solver for molecular simulations
<br>&gt; &gt; &gt; J. Comp. Chem. 18 (1997) pp. 1463-1472<br>&gt; &gt; &gt; -------- -------- --- Thank You --- -------- --------<br>&gt; &gt; &gt;<br>&gt; &gt; &gt;<br>&gt; &gt; &gt; Initializing LINear Constraint Solver
<br>&gt; &gt; &gt;&nbsp;&nbsp; number of constraints is 3632<br>&gt; &gt; &gt;&nbsp;&nbsp; average number of constraints coupled to one constraint is 2.9&quot;<br>&gt; &gt; &gt;<br>&gt; &gt; &gt;<br>&gt; &gt; &gt; I also tried 6 nodes or 10 nodes, but mdrun always stops here, there&#39;s
<br>&gt; &gt; &gt; no problem if I ran it by -np 4.<br>&gt; &gt; &gt; I searched the list, I found some people said that this probably<br>&gt; &gt; &gt; because the MPI version, currently, we used the 1.2.7<br>&gt; &gt;<br>
&gt; &gt; MPICH&nbsp;&nbsp;for GROMACS is not supported at all. Try LAM if you suspect the<br>&gt; &gt; MPI install, and I would suspect it.<br>&gt; &gt;<br>&gt; &gt; Mark<br>&gt; &gt; _______________________________________________
<br>&gt; &gt; gmx-users mailing list&nbsp;&nbsp;&nbsp;&nbsp;<a href="mailto:gmx-users@gromacs.org">gmx-users@gromacs.org</a><br>&gt; &gt; <a href="http://www.gromacs.org/mailman/listinfo/gmx-users">http://www.gromacs.org/mailman/listinfo/gmx-users
</a><br>&gt; &gt; Please search the archive at <a href="http://www.gromacs.org/search">http://www.gromacs.org/search</a> before<br>&gt; &gt; posting! Please don&#39;t post (un)subscribe requests to the list. Use the<br>&gt; &gt; www interface or send it to 
<a href="mailto:gmx-users-request@gromacs.org">gmx-users-request@gromacs.org</a>.<br>&gt; &gt; Can&#39;t post? Read <a href="http://www.gromacs.org/mailing_lists/users.php">http://www.gromacs.org/mailing_lists/users.php</a>
<br><br><br>Greetings,<br><br>Florian<br><br>--<br>-------------------------------------------------------------------------------<br>Florian Haberl<br>Computer-Chemie-Centrum<br>Universitaet Erlangen/ Nuernberg<br>Naegelsbachstr 25
<br>D-91052 Erlangen<br>Telephone:&nbsp;&nbsp;&nbsp;&nbsp; +49(0) − 9131 − 85 26581<br>Mailto: florian.haberl AT <a href="http://chemie.uni-erlangen.de">chemie.uni-erlangen.de</a><br>-------------------------------------------------------------------------------
<br>_______________________________________________<br>gmx-users mailing list&nbsp;&nbsp;&nbsp;&nbsp;<a href="mailto:gmx-users@gromacs.org">gmx-users@gromacs.org</a><br><a href="http://www.gromacs.org/mailman/listinfo/gmx-users">http://www.gromacs.org/mailman/listinfo/gmx-users
</a><br>Please search the archive at <a href="http://www.gromacs.org/search">http://www.gromacs.org/search</a> before posting!<br>Please don&#39;t post (un)subscribe requests to the list. Use the<br>www interface or send it to 
<a href="mailto:gmx-users-request@gromacs.org">gmx-users-request@gromacs.org</a>.<br>Can&#39;t post? Read <a href="http://www.gromacs.org/mailing_lists/users.php">http://www.gromacs.org/mailing_lists/users.php</a><br></blockquote>
</div><br>