Hi Baofu,<div><br></div><div>could you provide more information about the file system? </div><div>The command &quot;mount&quot; provides the file system used. If it is a network-file-system than the operating system and file system used on the file server is also of interest.</div>

<div><br></div><div>Roland<br><br><div class="gmail_quote">On Fri, Nov 26, 2010 at 11:00 AM, Baofu Qiao <span dir="ltr">&lt;<a href="mailto:qiaobf@gmail.com">qiaobf@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">

Hi Roland,<br>
<br>
Thanks a lot!<br>
<br>
OS: Scientific Linux 5.5. But the system to store data is called as<br>
WORKSPACE, different from the regular hardware system. Maybe this is the<br>
reason.<br>
<br>
I&#39;ll try what you suggest!<br>
<br>
regards,<br>
<font color="#888888">Baofu Qiao<br>
</font><div><div></div><div class="h5"><br>
<br>
On 11/26/2010 04:07 PM, Roland Schulz wrote:<br>
&gt; Baofu,<br>
&gt;<br>
&gt; what operating system are you using? On what file system do you try to store<br>
&gt; the log file? The error (should) mean that the file system you use doesn&#39;t<br>
&gt; support locking of files.<br>
&gt; Try to store the log file on some other file system. If you want you can<br>
&gt; still store the (large) trajectory files on the same file system.<br>
&gt;<br>
&gt; Roland<br>
&gt;<br>
&gt; On Fri, Nov 26, 2010 at 4:55 AM, Baofu Qiao &lt;<a href="mailto:qiaobf@gmail.com">qiaobf@gmail.com</a>&gt; wrote:<br>
&gt;<br>
&gt;<br>
&gt;&gt; Hi Carsten,<br>
&gt;&gt;<br>
&gt;&gt; Thanks for your suggestion! But because my simulation will be run for<br>
&gt;&gt; about 200ns, 10ns per day(24 hours is the maximum duration for one<br>
&gt;&gt; single job on the Cluster I am using), which will generate about 20<br>
&gt;&gt; trajectories!<br>
&gt;&gt;<br>
&gt;&gt; Can anyone find the reason causing such error?<br>
&gt;&gt;<br>
&gt;&gt; regards,<br>
&gt;&gt; Baofu Qiao<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; On 11/26/2010 09:07 AM, Carsten Kutzner wrote:<br>
&gt;&gt;<br>
&gt;&gt;&gt; Hi,<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; as a workaround you could run with -noappend and later<br>
&gt;&gt;&gt; concatenate the output files. Then you should have no<br>
&gt;&gt;&gt; problems with locking.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Carsten<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; On Nov 25, 2010, at 9:43 PM, Baofu Qiao wrote:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; Hi all,<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; I just recompiled GMX4.0.7. Such error doesn&#39;t occur. But 4.0.7 is about<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt; 30% slower than 4.5.3. So I really appreciate if anyone can help me with it!<br>
&gt;&gt;<br>
&gt;&gt;&gt;&gt; best regards,<br>
&gt;&gt;&gt;&gt; Baofu Qiao<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; 于 2010-11-25 20:17, Baofu Qiao 写道:<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; Hi all,<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; I got the error message when I am extending the simulation using the<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt; following command:<br>
&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; mpiexec -np 64 mdrun -deffnm pre -npme 32 -maxh 2 -table table -cpi<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt; pre.cpt -append<br>
&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; The previous simuluation is succeeded. I wonder why pre.log is locked,<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt; and the strange warning of &quot;Function not implemented&quot;?<br>
&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; Any suggestion is appreciated!<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; *********************************************************************<br>
&gt;&gt;&gt;&gt;&gt; Getting Loaded...<br>
&gt;&gt;&gt;&gt;&gt; Reading file pre.tpr, VERSION 4.5.3 (single precision)<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; Reading checkpoint file pre.cpt generated: Thu Nov 25 19:43:25 2010<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; -------------------------------------------------------<br>
&gt;&gt;&gt;&gt;&gt; Program mdrun, VERSION 4.5.3<br>
&gt;&gt;&gt;&gt;&gt; Source code file: checkpoint.c, line: 1750<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; Fatal error:<br>
&gt;&gt;&gt;&gt;&gt; Failed to lock: pre.log. Function not implemented.<br>
&gt;&gt;&gt;&gt;&gt; For more information and tips for troubleshooting, please check the<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt; GROMACS<br>
&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; website at <a href="http://www.gromacs.org/Documentation/Errors" target="_blank">http://www.gromacs.org/Documentation/Errors</a><br>
&gt;&gt;&gt;&gt;&gt; -------------------------------------------------------<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &quot;It Doesn&#39;t Have to Be Tip Top&quot; (Pulp Fiction)<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; Error on node 0, will try to stop all the nodes<br>
&gt;&gt;&gt;&gt;&gt; Halting parallel program mdrun on CPU 0 out of 64<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; gcq#147: &quot;It Doesn&#39;t Have to Be Tip Top&quot; (Pulp Fiction)<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt; --------------------------------------------------------------------------<br>
&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; MPI_ABORT was invoked on rank 0 in communicator MPI_COMM_WORLD<br>
&gt;&gt;&gt;&gt;&gt; with errorcode -1.<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; NOTE: invoking MPI_ABORT causes Open MPI to kill all MPI processes.<br>
&gt;&gt;&gt;&gt;&gt; You may or may not see output from other processes, depending on<br>
&gt;&gt;&gt;&gt;&gt; exactly when Open MPI kills them.<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt; --------------------------------------------------------------------------<br>
&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt; --------------------------------------------------------------------------<br>
&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; mpiexec has exited due to process rank 0 with PID 32758 on<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; --<br>
&gt;&gt;&gt;&gt; gmx-users mailing list    <a href="mailto:gmx-users@gromacs.org">gmx-users@gromacs.org</a><br>
&gt;&gt;&gt;&gt; <a href="http://lists.gromacs.org/mailman/listinfo/gmx-users" target="_blank">http://lists.gromacs.org/mailman/listinfo/gmx-users</a><br>
&gt;&gt;&gt;&gt; Please search the archive at<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt; <a href="http://www.gromacs.org/Support/Mailing_Lists/Search" target="_blank">http://www.gromacs.org/Support/Mailing_Lists/Search</a> before posting!<br>
&gt;&gt;<br>
&gt;&gt;&gt;&gt; Please don&#39;t post (un)subscribe requests to the list. Use the<br>
&gt;&gt;&gt;&gt; www interface or send it to <a href="mailto:gmx-users-request@gromacs.org">gmx-users-request@gromacs.org</a>.<br>
&gt;&gt;&gt;&gt; Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" target="_blank">http://www.gromacs.org/Support/Mailing_Lists</a><br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
<br>
--<br>
gmx-users mailing list    <a href="mailto:gmx-users@gromacs.org">gmx-users@gromacs.org</a><br>
<a href="http://lists.gromacs.org/mailman/listinfo/gmx-users" target="_blank">http://lists.gromacs.org/mailman/listinfo/gmx-users</a><br>
Please search the archive at <a href="http://www.gromacs.org/Support/Mailing_Lists/Search" target="_blank">http://www.gromacs.org/Support/Mailing_Lists/Search</a> before posting!<br>
Please don&#39;t post (un)subscribe requests to the list. Use the<br>
www interface or send it to <a href="mailto:gmx-users-request@gromacs.org">gmx-users-request@gromacs.org</a>.<br>
Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" target="_blank">http://www.gromacs.org/Support/Mailing_Lists</a><br>
<br>
<br>
</div></div></blockquote></div><br><br clear="all"><br>-- <br>ORNL/UT Center for Molecular Biophysics <a href="http://cmb.ornl.gov">cmb.ornl.gov</a><br>865-241-1537, ORNL PO BOX 2008 MS6309<br>
</div>