<div dir="ltr">HI Carsten,<br>Thanks again for reply. and my apologies for putting question out of discussion.<br>actually I tried same command with -np 24 and -np 64, and for both cases i got different trajectory (while analyzing them using ngmx).<br>
Also Can you suggest me some tutorial or reference to get details of scalability limitation of gromacs(on parellal enviournment).<br><br>With Thanks,<br>Vivek<br><br><div class="gmail_quote">2008/9/12 Carsten Kutzner <span dir="ltr">&lt;<a href="mailto:ckutzne@gwdg.de">ckutzne@gwdg.de</a>&gt;</span><br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">Hi Vivek,<br>
<br>
I think I&#39;m a bit lost now. We were originally talking about differences<br>
in trajectories but from the mail you just sent I can see that you have<br>
a segmentation fault, which is another problem.<br>
<br>
I can only suggest that if you want to make use of 128 processors you<br>
should download the CVS version of gromacs or wait until the 4.0<br>
is out. Since in gromacs 3.3.x the protein has to reside as a whole<br>
on one of the processors, this very likely limits your scaling.<br>
<br>
Also, on 128 processors you will get a PME grid of 128x128xSomething<br>
(since nx and ny have to be divisible by the number of CPUs) which is<br>
probably way bigger than it needs to be (how big is it for a single<br>
CPU?). Together with a PME order of 6 this leads to a large overlap<br>
in the charge grid, which has to be communicated among the processors.<br>
PME order 4 will be better suited for such a high parallelization, but<br>
in general for Gromacs 3.x you should have at least a few thousand atoms<br>
per &nbsp;processor, less than 1000 won&#39;t give you decent scaling at all.<br>
<br>
Carsten<br>
<br>
vivek sharma wrote:<br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
Hi Carsten,<br>
Thanks for your reply. Actually I am running MD simulation on a protein molecule with 270 residues(2687 atoms), after adding water it is having 45599 atoms, and using the recent version of gromacs test available from <a href="http://gromacs.org" target="_blank">gromacs.org</a> &lt;<a href="http://gromacs.org" target="_blank">http://gromacs.org</a>&gt; (gmxtest-3.3.3.tgz)<div>
<div></div><div class="Wj3C7c"><br>
Following are the entries from the .mdp file I am using.....<br>
<br>
**********md.mdp<br>
title &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; = trp_drg MD<br>
cpp &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; = /lib/cpp ; location of cpp on SGI<br>
constraints &nbsp; &nbsp; &nbsp; &nbsp; = all-bonds<br>
integrator &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;= md<br>
dt &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;= 0.002 ; ps !<br>
nsteps &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;= 25000 ; total 50 ps.<br>
nstcomm &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; = 1<br>
nstxout &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; = 2500 ; output coordinates every 5.0 ps<br>
nstvout &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; = 0<br>
nstfout &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; = 0<br>
nstlist &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; = 5<br>
ns_type &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; = grid<br>
rlist &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; = 0.9<br>
coulombtype &nbsp; &nbsp; &nbsp; &nbsp; = PME<br>
rcoulomb &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;= 0.9<br>
rvdw &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;= 1.4<br>
fourierspacing &nbsp; &nbsp; &nbsp;= 0.12<br>
fourier_nx &nbsp; &nbsp; &nbsp; &nbsp;= 0<br>
fourier_ny &nbsp; &nbsp; &nbsp; &nbsp;= 0<br>
fourier_nz &nbsp; &nbsp; &nbsp; &nbsp;= 0<br>
pme_order &nbsp; &nbsp; &nbsp; &nbsp; = 6<br>
ewald_rtol &nbsp; &nbsp; &nbsp; &nbsp;= 1e-5<br>
optimize_fft &nbsp; &nbsp; &nbsp;= yes<br>
; Berendsen temperature coupling is on in four groups<br>
Tcoupl &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;= berendsen<br>
tau_t &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; = 0.1 &nbsp; &nbsp; &nbsp; &nbsp; 0.1 &nbsp; 0.1<br>
tc-grps &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; = protein &nbsp; &nbsp; NDP &nbsp; sol<br>
ref_t &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; = 300 &nbsp; &nbsp; &nbsp; &nbsp; 300 &nbsp; 300<br>
; Pressure coupling is on<br>
Pcoupl &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;= berendsen<br>
pcoupltype &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;= isotropic<br>
tau_p &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; = 0.5<br>
compressibility &nbsp; &nbsp; = 4.5e-5<br>
ref_p &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; = 1.0<br>
; Generate velocites is on at 300 K.<br>
gen_vel &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; = yes<br>
gen_temp &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;= 300.0<br>
gen_seed &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;= 173529<br>
&nbsp;<br>
<br>
****************and Following are the commands I am using<br>
grompp_d -np 128 -f md1.mdp -c 1XU9_A_b4em.gro -p 1XU9_A.top -o 1XU9_A_md1_np128.tpr<br>
<br>
submit<br>
mdrun_d<br>
/////arguement for mdrun_d<br>
-s 1XU9_A_md1_np128.tpr -o 1XU9_A_md1_np128.trr -c 1XU9_A_pmd1_np128.gro -g md_np128.log -e md_np128.edr -np 128<br>
<br>
***********Following is the error I am getting<br>
Reading file 1XU9_A_md1_np128.tpr, VERSION 3.3.3 (double precision)<br>
starting mdrun &#39;CORTICOSTEROID 11-BETA-DEHYDROGENASE, ISOZYME 1&#39;<br>
25000 steps, &nbsp; &nbsp; 50.0 ps.<br>
<br>
srun: error: n141: task1: Segmentation fault<br>
srun: Terminating job<br>
<br>
****************************************************************<br>
Is this information is helpfull in figuring out the problem.<br>
Please, advice<br>
<br>
With Thanks,<br>
Vivek<br>
<br></div></div>
2008/9/11 Carsten Kutzner &lt;<a href="mailto:ckutzne@gwdg.de" target="_blank">ckutzne@gwdg.de</a> &lt;mailto:<a href="mailto:ckutzne@gwdg.de" target="_blank">ckutzne@gwdg.de</a>&gt;&gt;<div><div></div><div class="Wj3C7c">
<br>
<br>
 &nbsp; &nbsp;vivek sharma wrote:<br>
<br>
 &nbsp; &nbsp; &nbsp; &nbsp;Hi There,<br>
 &nbsp; &nbsp; &nbsp; &nbsp;I am running gromacs parellal version on cluster, with different<br>
 &nbsp; &nbsp; &nbsp; &nbsp;-np options.<br>
<br>
 &nbsp; &nbsp;Hi,<br>
<br>
 &nbsp; &nbsp;which version of gromacs exactly are you using?<br>
<br>
<br>
&nbsp;<br>
<br>
<br>
 &nbsp; &nbsp; &nbsp; &nbsp;On analyzing the 5 nsec trajectory using ngmx, I am finding<br>
 &nbsp; &nbsp; &nbsp; &nbsp;difference in the trajectory of two similar runs (only thing<br>
 &nbsp; &nbsp; &nbsp; &nbsp;varying in two runs in -np i.e 20 and 64 ), where mdp file and<br>
 &nbsp; &nbsp; &nbsp; &nbsp;input files are same in two cases.<br>
 &nbsp; &nbsp; &nbsp; &nbsp;I am wondering why I am getting this difference in two<br>
 &nbsp; &nbsp; &nbsp; &nbsp;trajectories ?<br>
 &nbsp; &nbsp; &nbsp; &nbsp;I am looking for the advice whether I did something wrong or<br>
 &nbsp; &nbsp; &nbsp; &nbsp;what may be the probable reason for this difference.<br>
<br>
<br>
 &nbsp; &nbsp;There are many reasons why a parallel run does not yield binary<br>
 &nbsp; &nbsp;identical<br>
 &nbsp; &nbsp;results to a run with another number of processors, even if you<br>
 &nbsp; &nbsp;start from<br>
 &nbsp; &nbsp;the same tpr file. If you use PME, then the FFTW could pick a slightly<br>
 &nbsp; &nbsp;different algorithm (it will select the fastest for that number of<br>
 &nbsp; &nbsp;processors.<br>
 &nbsp; &nbsp;This feature you can turn off by passing --disable-fftw-measure to the<br>
 &nbsp; &nbsp;gromacs configure script). But still you can get results that are not<br>
 &nbsp; &nbsp;binary identical if you do FFTs on a varying number of CPUs. Also, for<br>
 &nbsp; &nbsp;limited accuracy which is inherent to any computer, additions need not<br>
 &nbsp; &nbsp;be associative, which can show up in parallel additions.<br>
<br>
 &nbsp; &nbsp;Generally, if you run in double precision, these effects will be way<br>
 &nbsp; &nbsp;smaller,<br>
 &nbsp; &nbsp;but nevertheless you won&#39;t get binary identical results. This will<br>
 &nbsp; &nbsp;in all<br>
 &nbsp; &nbsp;cases lead to trajectories which slowly diverge from each other.<br>
 &nbsp; &nbsp;However,<br>
 &nbsp; &nbsp;in the fist few hundred time steps, you should not see any difference in<br>
 &nbsp; &nbsp;the first couple of decimals of the variables (positions, velocities,<br>
 &nbsp; &nbsp;energies ...)<br>
<br>
<br>
 &nbsp; &nbsp; &nbsp; &nbsp;Also, I am not able to run gromacs faster by increasing the -np<br>
 &nbsp; &nbsp; &nbsp; &nbsp;issue,<br>
<br>
<br>
 &nbsp; &nbsp;Please provide the exact command line you used.<br>
<br>
<br>
 &nbsp; &nbsp; &nbsp; &nbsp;Is there any max limit for scaling gromacs on parellal cluster ?<br>
<br>
<br>
 &nbsp; &nbsp;Yes, depending on your MD system and on the cluster you use :)<br>
<br>
 &nbsp; &nbsp;Carsten<br>
<br>
<br>
<br>
 &nbsp; &nbsp; &nbsp; &nbsp;With Thanks,<br>
 &nbsp; &nbsp; &nbsp; &nbsp;Vivek<br>
<br>
<br>
 &nbsp; &nbsp; &nbsp; &nbsp;------------------------------------------------------------------------<br>
<br>
 &nbsp; &nbsp; &nbsp; &nbsp;_______________________________________________<br>
 &nbsp; &nbsp; &nbsp; &nbsp;gmx-users mailing list &nbsp; &nbsp;<a href="mailto:gmx-users@gromacs.org" target="_blank">gmx-users@gromacs.org</a><br></div></div>
 &nbsp; &nbsp; &nbsp; &nbsp;&lt;mailto:<a href="mailto:gmx-users@gromacs.org" target="_blank">gmx-users@gromacs.org</a>&gt;<div class="Ih2E3d"><br>
 &nbsp; &nbsp; &nbsp; &nbsp;<a href="http://www.gromacs.org/mailman/listinfo/gmx-users" target="_blank">http://www.gromacs.org/mailman/listinfo/gmx-users</a><br>
 &nbsp; &nbsp; &nbsp; &nbsp;Please search the archive at <a href="http://www.gromacs.org/search" target="_blank">http://www.gromacs.org/search</a><br>
 &nbsp; &nbsp; &nbsp; &nbsp;before posting!<br>
 &nbsp; &nbsp; &nbsp; &nbsp;Please don&#39;t post (un)subscribe requests to the list. Use the<br>
 &nbsp; &nbsp; &nbsp; &nbsp;www interface or send it to <a href="mailto:gmx-users-request@gromacs.org" target="_blank">gmx-users-request@gromacs.org</a><br></div>
 &nbsp; &nbsp; &nbsp; &nbsp;&lt;mailto:<a href="mailto:gmx-users-request@gromacs.org" target="_blank">gmx-users-request@gromacs.org</a>&gt;.<div class="Ih2E3d"><br>
 &nbsp; &nbsp; &nbsp; &nbsp;Can&#39;t post? Read <a href="http://www.gromacs.org/mailing_lists/users.php" target="_blank">http://www.gromacs.org/mailing_lists/users.php</a><br>
<br>
<br>
 &nbsp; &nbsp;--  &nbsp; &nbsp;Dr. Carsten Kutzner<br>
 &nbsp; &nbsp;Max Planck Institute for Biophysical Chemistry<br>
 &nbsp; &nbsp;Theoretical and Computational Biophysics Department<br>
 &nbsp; &nbsp;Am Fassberg 11<br>
 &nbsp; &nbsp;37077 Goettingen, Germany<br>
 &nbsp; &nbsp;Tel. +49-551-2012313, Fax: +49-551-2012302<br>
 &nbsp; &nbsp;<a href="http://www.mpibpc.mpg.de/research/dep/grubmueller/" target="_blank">http://www.mpibpc.mpg.de/research/dep/grubmueller/</a><br></div>
 &nbsp; &nbsp;<a href="http://www.gwdg.de/%7Eckutzne" target="_blank">http://www.gwdg.de/~ckutzne</a> &lt;<a href="http://www.gwdg.de/%7Eckutzne" target="_blank">http://www.gwdg.de/%7Eckutzne</a>&gt;<div class="Ih2E3d"><br>
<br>
 &nbsp; &nbsp;_______________________________________________<br>
 &nbsp; &nbsp;gmx-users mailing list &nbsp; &nbsp;<a href="mailto:gmx-users@gromacs.org" target="_blank">gmx-users@gromacs.org</a><br></div>
 &nbsp; &nbsp;&lt;mailto:<a href="mailto:gmx-users@gromacs.org" target="_blank">gmx-users@gromacs.org</a>&gt;<div class="Ih2E3d"><br>
 &nbsp; &nbsp;<a href="http://www.gromacs.org/mailman/listinfo/gmx-users" target="_blank">http://www.gromacs.org/mailman/listinfo/gmx-users</a><br>
 &nbsp; &nbsp;Please search the archive at <a href="http://www.gromacs.org/search" target="_blank">http://www.gromacs.org/search</a> before<br>
 &nbsp; &nbsp;posting!<br>
 &nbsp; &nbsp;Please don&#39;t post (un)subscribe requests to the list. Use the www<br>
 &nbsp; &nbsp;interface or send it to <a href="mailto:gmx-users-request@gromacs.org" target="_blank">gmx-users-request@gromacs.org</a><br></div>
 &nbsp; &nbsp;&lt;mailto:<a href="mailto:gmx-users-request@gromacs.org" target="_blank">gmx-users-request@gromacs.org</a>&gt;.<div class="Ih2E3d"><br>
 &nbsp; &nbsp;Can&#39;t post? Read <a href="http://www.gromacs.org/mailing_lists/users.php" target="_blank">http://www.gromacs.org/mailing_lists/users.php</a><br>
<br>
<br>
<br>
------------------------------------------------------------------------<br>
<br>
_______________________________________________<br>
gmx-users mailing list &nbsp; &nbsp;<a href="mailto:gmx-users@gromacs.org" target="_blank">gmx-users@gromacs.org</a><br>
<a href="http://www.gromacs.org/mailman/listinfo/gmx-users" target="_blank">http://www.gromacs.org/mailman/listinfo/gmx-users</a><br>
Please search the archive at <a href="http://www.gromacs.org/search" target="_blank">http://www.gromacs.org/search</a> before posting!<br>
Please don&#39;t post (un)subscribe requests to the list. Use the www interface or send it to <a href="mailto:gmx-users-request@gromacs.org" target="_blank">gmx-users-request@gromacs.org</a>.<br>
Can&#39;t post? Read <a href="http://www.gromacs.org/mailing_lists/users.php" target="_blank">http://www.gromacs.org/mailing_lists/users.php</a><br>
</div></blockquote><div><div></div><div class="Wj3C7c">
<br>
-- <br>
Dr. Carsten Kutzner<br>
Max Planck Institute for Biophysical Chemistry<br>
Theoretical and Computational Biophysics Department<br>
Am Fassberg 11<br>
37077 Goettingen, Germany<br>
Tel. +49-551-2012313, Fax: +49-551-2012302<br>
<a href="http://www.mpibpc.mpg.de/research/dep/grubmueller/" target="_blank">http://www.mpibpc.mpg.de/research/dep/grubmueller/</a><br>
<a href="http://www.gwdg.de/%7Eckutzne" target="_blank">http://www.gwdg.de/~ckutzne</a><br>
_______________________________________________<br>
gmx-users mailing list &nbsp; &nbsp;<a href="mailto:gmx-users@gromacs.org" target="_blank">gmx-users@gromacs.org</a><br>
<a href="http://www.gromacs.org/mailman/listinfo/gmx-users" target="_blank">http://www.gromacs.org/mailman/listinfo/gmx-users</a><br>
Please search the archive at <a href="http://www.gromacs.org/search" target="_blank">http://www.gromacs.org/search</a> before posting!<br>
Please don&#39;t post (un)subscribe requests to the list. Use the www interface or send it to <a href="mailto:gmx-users-request@gromacs.org" target="_blank">gmx-users-request@gromacs.org</a>.<br>
Can&#39;t post? Read <a href="http://www.gromacs.org/mailing_lists/users.php" target="_blank">http://www.gromacs.org/mailing_lists/users.php</a><br>
</div></div></blockquote></div><br></div>