Baofu,<div><br><div>what operating system are you using? On what file system do you try to store the log file? The error (should) mean that the file system you use doesn&#39;t support locking of files. </div><div>Try to store the log file on some other file system. If you want you can still store the (large) trajectory files on the same file system.</div>

<div><br></div><div>Roland<br><br><div class="gmail_quote">On Fri, Nov 26, 2010 at 4:55 AM, Baofu Qiao <span dir="ltr">&lt;<a href="mailto:qiaobf@gmail.com">qiaobf@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">

Hi Carsten,<br>
<br>
Thanks for your suggestion! But because my simulation will be run for<br>
about 200ns, 10ns per day(24 hours is the maximum duration for one<br>
single job on the Cluster I am using), which will generate about 20<br>
trajectories!<br>
<br>
Can anyone find the reason causing such error?<br>
<br>
regards,<br>
Baofu Qiao<br>
<div><div></div><div class="h5"><br>
<br>
On 11/26/2010 09:07 AM, Carsten Kutzner wrote:<br>
&gt; Hi,<br>
&gt;<br>
&gt; as a workaround you could run with -noappend and later<br>
&gt; concatenate the output files. Then you should have no<br>
&gt; problems with locking.<br>
&gt;<br>
&gt; Carsten<br>
&gt;<br>
&gt;<br>
&gt; On Nov 25, 2010, at 9:43 PM, Baofu Qiao wrote:<br>
&gt;<br>
&gt;<br>
&gt;&gt; Hi all,<br>
&gt;&gt;<br>
&gt;&gt; I just recompiled GMX4.0.7. Such error doesn&#39;t occur. But 4.0.7 is about 30% slower than 4.5.3. So I really appreciate if anyone can help me with it!<br>
&gt;&gt;<br>
&gt;&gt; best regards,<br>
&gt;&gt; Baofu Qiao<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; 于 2010-11-25 20:17, Baofu Qiao 写道:<br>
&gt;&gt;<br>
&gt;&gt;&gt; Hi all,<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; I got the error message when I am extending the simulation using the following command:<br>
&gt;&gt;&gt; mpiexec -np 64 mdrun -deffnm pre -npme 32 -maxh 2 -table table -cpi pre.cpt -append<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; The previous simuluation is succeeded. I wonder why pre.log is locked, and the strange warning of &quot;Function not implemented&quot;?<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Any suggestion is appreciated!<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; *********************************************************************<br>
&gt;&gt;&gt; Getting Loaded...<br>
&gt;&gt;&gt; Reading file pre.tpr, VERSION 4.5.3 (single precision)<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Reading checkpoint file pre.cpt generated: Thu Nov 25 19:43:25 2010<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; -------------------------------------------------------<br>
&gt;&gt;&gt; Program mdrun, VERSION 4.5.3<br>
&gt;&gt;&gt; Source code file: checkpoint.c, line: 1750<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Fatal error:<br>
&gt;&gt;&gt; Failed to lock: pre.log. Function not implemented.<br>
&gt;&gt;&gt; For more information and tips for troubleshooting, please check the GROMACS<br>
&gt;&gt;&gt; website at <a href="http://www.gromacs.org/Documentation/Errors" target="_blank">http://www.gromacs.org/Documentation/Errors</a><br>
&gt;&gt;&gt; -------------------------------------------------------<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; &quot;It Doesn&#39;t Have to Be Tip Top&quot; (Pulp Fiction)<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Error on node 0, will try to stop all the nodes<br>
&gt;&gt;&gt; Halting parallel program mdrun on CPU 0 out of 64<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; gcq#147: &quot;It Doesn&#39;t Have to Be Tip Top&quot; (Pulp Fiction)<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; --------------------------------------------------------------------------<br>
&gt;&gt;&gt; MPI_ABORT was invoked on rank 0 in communicator MPI_COMM_WORLD<br>
&gt;&gt;&gt; with errorcode -1.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; NOTE: invoking MPI_ABORT causes Open MPI to kill all MPI processes.<br>
&gt;&gt;&gt; You may or may not see output from other processes, depending on<br>
&gt;&gt;&gt; exactly when Open MPI kills them.<br>
&gt;&gt;&gt; --------------------------------------------------------------------------<br>
&gt;&gt;&gt; --------------------------------------------------------------------------<br>
&gt;&gt;&gt; mpiexec has exited due to process rank 0 with PID 32758 on<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt; --<br>
&gt;&gt; gmx-users mailing list    <a href="mailto:gmx-users@gromacs.org">gmx-users@gromacs.org</a><br>
&gt;&gt; <a href="http://lists.gromacs.org/mailman/listinfo/gmx-users" target="_blank">http://lists.gromacs.org/mailman/listinfo/gmx-users</a><br>
&gt;&gt; Please search the archive at <a href="http://www.gromacs.org/Support/Mailing_Lists/Search" target="_blank">http://www.gromacs.org/Support/Mailing_Lists/Search</a> before posting!<br>
&gt;&gt; Please don&#39;t post (un)subscribe requests to the list. Use the<br>
&gt;&gt; www interface or send it to <a href="mailto:gmx-users-request@gromacs.org">gmx-users-request@gromacs.org</a>.<br>
&gt;&gt; Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" target="_blank">http://www.gromacs.org/Support/Mailing_Lists</a><br>
&gt;&gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
<br>
<br>
--<br>
</div></div>************************************<br>
 Dr. Baofu Qiao<br>
 Institute for Computational Physics<br>
 Universität Stuttgart<br>
 Pfaffenwaldring 27<br>
 70569 Stuttgart<br>
<br>
 Tel: +49(0)711 68563607<br>
 Fax: +49(0)711 68563658<br>
<div><div></div><div class="h5"><br>
--<br>
gmx-users mailing list    <a href="mailto:gmx-users@gromacs.org">gmx-users@gromacs.org</a><br>
<a href="http://lists.gromacs.org/mailman/listinfo/gmx-users" target="_blank">http://lists.gromacs.org/mailman/listinfo/gmx-users</a><br>
Please search the archive at <a href="http://www.gromacs.org/Support/Mailing_Lists/Search" target="_blank">http://www.gromacs.org/Support/Mailing_Lists/Search</a> before posting!<br>
Please don&#39;t post (un)subscribe requests to the list. Use the<br>
www interface or send it to <a href="mailto:gmx-users-request@gromacs.org">gmx-users-request@gromacs.org</a>.<br>
Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" target="_blank">http://www.gromacs.org/Support/Mailing_Lists</a><br>
<br>
<br>
</div></div></blockquote></div><br><br clear="all"><br>-- <br>ORNL/UT Center for Molecular Biophysics <a href="http://cmb.ornl.gov">cmb.ornl.gov</a><br>865-241-1537, ORNL PO BOX 2008 MS6309<br>
</div></div>