An update:<br>Using a 4th order PME spline resulted in ~ 15 % increase in efficiency. <br><br>Thank you, Carsten.<br><br><div class="gmail_quote">On Mon, Mar 24, 2008 at 3:08 PM, maria goranovic &lt;<a href="mailto:mariagoranovic@gmail.com">mariagoranovic@gmail.com</a>&gt; wrote:<br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">Dear All,<br><br>My apologies. I had too big a simulation cell, and too few atoms, hence the problem.<br>
<br>No particular reason to choose order 5. I will try with pme_order 4 and see if it improves performance anyway.<br>
<br>thanks ! <br><font color="#888888"><br>-maria</font><div><div></div><div class="Wj3C7c"><br><br><div class="gmail_quote">On Mon, Mar 24, 2008 at 2:19 PM, Carsten Kutzner &lt;<a href="mailto:ckutzne@gwdg.de" target="_blank">ckutzne@gwdg.de</a>&gt; wrote:<br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
Am 24.03.2008 um 10:17 schrieb maria goranovic:<br>
<div><br>
&gt; Hi Folks,<br>
&gt;<br>
&gt; My simulation is running too slow. It took 10 wall clock hours (40<br>
&gt; cpu hours) for a short 50 ps simulation of a ~ 23000 atom DPPC<br>
&gt; bilayer. The hardware is a 4-cpu core. The installation is gromacs<br>
&gt; 3.3.1. I have run much larger systems (~ 160000 atoms) using the<br>
&gt; same gromacs installation on the same hardware, and they run much<br>
&gt; faster than this (200 ps per 40 cpu hours).<br>
&gt;<br>
&gt; Can anybody suggest why this is happening ? Is it because of latency<br>
&gt; in the cpu communication? If so, what is the workaround ?<br>
</div>Is there a special reason for using pme_order=5? I would use the<br>
default, 4 instead, or at least an even number.<br>
<br>
Carsten<br>
<div><div></div><div><br>
&gt; My .mdp script is below.<br>
&gt; These are the run commands.<br>
&gt;<br>
&gt; grompp -np 4 -v -f heat.mdp -c minim4.gro -p dppc.top -n dppc.ndx -o<br>
&gt; heat.tpr<br>
&gt; mpirun -np 4 ~/bin/mdrun_mpi -np 4 -v -s heat.tpr -o heat.trr -c<br>
&gt; heat.gro -e heat -g heat.log &gt; &amp; heat.out<br>
&gt;<br>
&gt; ;###########################################<br>
&gt; ; heat.mdp<br>
&gt; ;<br>
&gt; title &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; = &nbsp;heating<br>
&gt; cpp &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; = &nbsp;/usr/bin/cpp<br>
&gt; constraints &nbsp; &nbsp; &nbsp; &nbsp; = &nbsp;hbonds<br>
&gt; constraint_algorithm = lincs<br>
&gt; unconstrained_start = &nbsp;yes<br>
&gt; integrator &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;= &nbsp;md<br>
&gt; nsteps &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;= &nbsp;25000<br>
&gt; dt &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;= &nbsp;0.002<br>
&gt; comm_mode &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; = &nbsp;linear<br>
&gt; nstxout &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; = &nbsp;5000<br>
&gt; nstvout &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; = &nbsp;5000<br>
&gt; nstlog &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;= &nbsp;5000<br>
&gt; nstenergy &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; = &nbsp;5000<br>
&gt; nstlist &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; = &nbsp;10<br>
&gt; ns_type &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; = &nbsp;grid<br>
&gt; pbc &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; = &nbsp;xyz<br>
&gt; ; ------------------<br>
&gt; coulombtype &nbsp; &nbsp; &nbsp; &nbsp; = PME<br>
&gt; rcoulomb &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;= 1.0<br>
&gt; vdwtype &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; = cut-off<br>
&gt; rlist &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; = 1.0<br>
&gt; rvdw &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;= 1.0<br>
&gt; fourierspacing &nbsp; &nbsp; &nbsp;= 0.1<br>
&gt; pme_order &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; = 5<br>
&gt; ewald_rtol &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;= 1e-5<br>
&gt; ; ---------------------------<br>
&gt; ; Berendsen temperature and preasure coupling<br>
&gt; Tcoupl &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;= &nbsp;berendsen<br>
&gt; tc-grps &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; = &nbsp;DPPC &nbsp;SOL<br>
&gt; tau_t &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; = &nbsp;0.6 &nbsp; &nbsp; &nbsp;0.6<br>
&gt; ; i have also tried a tau value of 0.1, but no speed up<br>
&gt; ref_t &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; = &nbsp;323.0 &nbsp; &nbsp; 323.0<br>
&gt; Pcoupl &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;= &nbsp;berendsen<br>
&gt; Pcoupltype &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;= &nbsp;semiisotropic<br>
&gt; tau_p &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; = &nbsp;1.0 &nbsp; &nbsp; &nbsp; &nbsp;1.0<br>
&gt; compressibility &nbsp; &nbsp; = &nbsp;4.5e-5 &nbsp;4.5e-5<br>
&gt; ref_p &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; = &nbsp;1.0 &nbsp; &nbsp; &nbsp; &nbsp;1.0<br>
&gt; ; ---------------------------<br>
&gt; gen_vel &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; = &nbsp;yes<br>
&gt; gen_temp &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;= &nbsp;323.0<br>
&gt; gen_seed &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;= &nbsp;194040<br>
&gt; ;###########################################<br>
&gt;<br>
&gt; --<br>
&gt; Maria G.<br>
&gt; Technical University of Denmark<br>
</div></div>&gt; Copenhagen _______________________________________________<br>
&gt; gmx-users mailing list &nbsp; &nbsp;<a href="mailto:gmx-users@gromacs.org" target="_blank">gmx-users@gromacs.org</a><br>
&gt; <a href="http://www.gromacs.org/mailman/listinfo/gmx-users" target="_blank">http://www.gromacs.org/mailman/listinfo/gmx-users</a><br>
&gt; Please search the archive at <a href="http://www.gromacs.org/search" target="_blank">http://www.gromacs.org/search</a> before<br>
&gt; posting!<br>
&gt; Please don&#39;t post (un)subscribe requests to the list. Use the<br>
&gt; www interface or send it to <a href="mailto:gmx-users-request@gromacs.org" target="_blank">gmx-users-request@gromacs.org</a>.<br>
&gt; Can&#39;t post? Read <a href="http://www.gromacs.org/mailing_lists/users.php" target="_blank">http://www.gromacs.org/mailing_lists/users.php</a><br>
<br>
_______________________________________________<br>
gmx-users mailing list &nbsp; &nbsp;<a href="mailto:gmx-users@gromacs.org" target="_blank">gmx-users@gromacs.org</a><br>
<a href="http://www.gromacs.org/mailman/listinfo/gmx-users" target="_blank">http://www.gromacs.org/mailman/listinfo/gmx-users</a><br>
Please search the archive at <a href="http://www.gromacs.org/search" target="_blank">http://www.gromacs.org/search</a> before posting!<br>
Please don&#39;t post (un)subscribe requests to the list. Use the<br>
www interface or send it to <a href="mailto:gmx-users-request@gromacs.org" target="_blank">gmx-users-request@gromacs.org</a>.<br>
Can&#39;t post? Read <a href="http://www.gromacs.org/mailing_lists/users.php" target="_blank">http://www.gromacs.org/mailing_lists/users.php</a><br>
</blockquote></div><br><br clear="all"><br>-- <br>Maria G.<br>Technical University of Denmark<br>Copenhagen
</div></div></blockquote></div><br><br clear="all"><br>-- <br>Maria G.<br>Technical University of Denmark<br>Copenhagen