Thanks for your help very much. <br><br>Best,<br><br>Ocean<br><br><div><span class="gmail_quote">On 12/21/06, <b class="gmail_sendername">Yang Ye</b> &lt;<a href="mailto:leafyoung81-group@yahoo.com">leafyoung81-group@yahoo.com
</a>&gt; wrote:</span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">normally we use following commands when compiling gromacs<br>./configure ... --program_suffix=_mpi --enable-mpi ...
<br><br>So we will have mdrun_mpi in the end.<br><br>The usage of mdrun_mpi is the same as mdrun but -np, -replex and other<br>switches are activated.<br><br>That statement on the user manual is to clarify that you don&#39;t need
<br>MPI-enabled mdrun to run on a multiprocessor machine. But if you want to<br>tap the capability of the multiprocessor machine, you need to use MPI<br>and use mdrun_mpi<br><br>Regards,<br>Yang Ye<br><br>On 12/21/2006 4:20 PM, Seaclear Theory wrote:
<br>&gt;<br>&gt;<br>&gt; On 12/20/06, *Mark Abraham* &lt;<a href="mailto:Mark.Abraham@anu.edu.au">Mark.Abraham@anu.edu.au</a><br>&gt; &lt;mailto:<a href="mailto:Mark.Abraham@anu.edu.au">Mark.Abraham@anu.edu.au</a>&gt;&gt; wrote:
<br>&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; Seaclear Theory wrote:<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; &gt; On 12/20/06, *Mark Abraham* &lt;<a href="mailto:Mark.Abraham@anu.edu.au">Mark.Abraham@anu.edu.au</a><br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;mailto:<a href="mailto:Mark.Abraham@anu.edu.au">
Mark.Abraham@anu.edu.au</a>&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; &gt; &lt;mailto:<a href="mailto:Mark.Abraham@anu.edu.au">Mark.Abraham@anu.edu.au</a><br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;mailto:<a href="mailto:Mark.Abraham@anu.edu.au">Mark.Abraham@anu.edu.au</a>&gt;&gt;&gt; wrote:
<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; Seaclear Theory wrote:<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt; Hi! All,<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt; I have a linux server with 4 CPUs. How can I run gromacs<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; on all CPUs?
<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&gt; The gromacs manual has very limit information. And it<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; does not works.<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; So which part of the manual section entitled &quot;Running GROMACS in<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; parallel&quot; doesn&#39;t work?<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; &gt; What I want is to&nbsp;&nbsp;run&nbsp;&nbsp;gromacs&nbsp;&nbsp;on a signle&nbsp;&nbsp;machine with multiple<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; &gt; processors.<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; &gt; In &quot;
A.5 Running GROMACS in parallel&quot;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; &gt; &quot;If you have a single machine with multiple processors you don&#39;t<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; have to<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; &gt; use the mpirun command,<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; &gt; but you can do with an extra option to mdrun:
<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; &gt; % mdrun -np 8 -s topol -v -N 8<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; &gt; In this example MPI reads the first option from the command<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; line. Since<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; &gt; mdrun also wants to<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; &gt; know the number of processes you have to type it twice.&quot;
<br>&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; So what does it say? Should you be using mdrun_mpi? How about using a<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; mpirun command anyway...<br>&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; If you want meaningful feedback you need to describe your setup<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; thoroughly, say what you&#39;ve tried and why that didn&#39;t work and why
<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; the<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; error messages didn&#39;t help you. Otherwise, you need to pay someone<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; for a<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; support contract :-) I&#39;ll help solve problems, but I won&#39;t help if you<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; don&#39;t give the impression you&#39;re helping yourself too!
<br>&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; Mark<br>&gt;<br>&gt;<br>&gt; I do not understand&nbsp;&nbsp;why you are so upset. Are you the author of the<br>&gt; user manual :-)&nbsp;&nbsp;Any way, let&#39;s go back for the issue, not person.<br>&gt;<br>&gt; The user manual said that &quot;you don&#39;t have to use the mpirun command&quot;
<br>&gt; if you want to run gromacs on a single machine with multiple<br>&gt; processors. How should I understand this? By the way, the manual (<br>&gt; v.3.3) and the reference does not have information about &quot;mdrun_mpi&quot;.
<br>&gt; Thanks.<br>&gt;<br>&gt; Ocean<br>&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; _______________________________________________<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; gmx-users mailing list&nbsp;&nbsp;&nbsp;&nbsp;<a href="mailto:gmx-users@gromacs.org">gmx-users@gromacs.org</a><br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;mailto:
<a href="mailto:gmx-users@gromacs.org">gmx-users@gromacs.org</a>&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; <a href="http://www.gromacs.org/mailman/listinfo/gmx-users">http://www.gromacs.org/mailman/listinfo/gmx-users</a><br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="http://www.gromacs.org/mailman/listinfo/gmx-users">
http://www.gromacs.org/mailman/listinfo/gmx-users</a>&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; Please don&#39;t post (un)subscribe requests to the list. Use the<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; www interface or send it to <a href="mailto:gmx-users-request@gromacs.org">
gmx-users-request@gromacs.org</a><br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;mailto:<a href="mailto:gmx-users-request@gromacs.org">gmx-users-request@gromacs.org</a>&gt;.<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp; Can&#39;t post? Read <a href="http://www.gromacs.org/mailing_lists/users.php">
http://www.gromacs.org/mailing_lists/users.php</a><br>&gt;<br>&gt;<br>&gt; ------------------------------------------------------------------------<br>&gt;<br>&gt; _______________________________________________<br>&gt; gmx-users mailing list&nbsp;&nbsp;&nbsp;&nbsp;
<a href="mailto:gmx-users@gromacs.org">gmx-users@gromacs.org</a><br>&gt; <a href="http://www.gromacs.org/mailman/listinfo/gmx-users">http://www.gromacs.org/mailman/listinfo/gmx-users</a><br>&gt; Please don&#39;t post (un)subscribe requests to the list. Use the
<br>&gt; www interface or send it to <a href="mailto:gmx-users-request@gromacs.org">gmx-users-request@gromacs.org</a>.<br>&gt; Can&#39;t post? Read <a href="http://www.gromacs.org/mailing_lists/users.php">http://www.gromacs.org/mailing_lists/users.php
</a><br><br><br>_______________________________________________<br>gmx-users mailing list&nbsp;&nbsp;&nbsp;&nbsp;<a href="mailto:gmx-users@gromacs.org">gmx-users@gromacs.org</a><br><a href="http://www.gromacs.org/mailman/listinfo/gmx-users">
http://www.gromacs.org/mailman/listinfo/gmx-users</a><br>Please don&#39;t post (un)subscribe requests to the list. Use the<br>www interface or send it to <a href="mailto:gmx-users-request@gromacs.org">gmx-users-request@gromacs.org
</a>.<br>Can&#39;t post? Read <a href="http://www.gromacs.org/mailing_lists/users.php">http://www.gromacs.org/mailing_lists/users.php</a><br></blockquote></div><br>