<html>
<head>
<style>
.hmmessage P
{
margin:0px;
padding:0px
}
body.hmmessage
{
font-size: 10pt;
font-family:Verdana
}
</style>
</head>
<body class='hmmessage'>
Hi,<br><br>SD will tau_t=0.1 will make your dynamics a lot slower.<br><br>I don't see a reason why there should be a difference between serial and parallel.<br>Are all simulations single runs, or do you do restarts?<br><br>Did you compare the temperatures to check if there is no strong energy loss<br>or heating and if there are differences between the different simulations?<br><br>Berk<br><br>&gt; Date: Wed, 4 Feb 2009 13:35:30 -0500<br>&gt; From: chris.neale@utoronto.ca<br>&gt; To: gmx-users@gromacs.org<br>&gt; Subject: [gmx-users] micelle disaggregated in serial, but not parallel,        runs using sd integrator<br>&gt; <br>&gt; Hello,<br>&gt; <br>&gt; I have been experiencing problems with a detergent micelle falling  <br>&gt; apart. This micelle spontaneously aggregated in tip4p and was stable  <br>&gt; for &gt;200 ns. I then took the .gro file from 100 ns after stable  <br>&gt; micelle formation and began some free energy calculations, during  <br>&gt; which the micelle partially disaggregated, even at lambda=0. At first  <br>&gt; I thought that this was related to the free energy code, and indeed  <br>&gt; the energygrps solution posted by Berk did stop my to-be-annihilated  <br>&gt; detergent monomer from flying around the box even at lambda=0.00.  <br>&gt; However, I have been able to reproduce this disaggregation in the  <br>&gt; absence of the free-energy code, so I believe that there is something  <br>&gt; else going on and my tests using GMX_NO_SOLV_OPT, separate energygrps,  <br>&gt; and the code change all indicate that this is a separate issue.<br>&gt; <br>&gt; I have been trying to locate the error for a few days, but each round  <br>&gt; of tests takes about 24h so the progress is slow. Here is a summary of  <br>&gt; what I have learned so far.<br>&gt; <br>&gt; A. Do not fall apart by 2.5 ns:<br>&gt; GMX 3.3.1, 4.0.2, or 4.0.3<br>&gt; integrator          =  md<br>&gt; energygrps          =  DPC SOL<br>&gt; tcoupl              =  Berendsen<br>&gt; tc_grps             =  DPC     SOL<br>&gt; tau_t               =  0.1     0.1<br>&gt; ref_t               =  300.    300.<br>&gt; <br>&gt; B. Partial dissaggregation or irregular micelle shape observed by 2.5 ns:<br>&gt; GMX 3.3.1, 4.0.2, or 4.0.3<br>&gt; integrator          =  sd<br>&gt; energygrps          =  System  --- or ---  DPC SOL<br>&gt; tc_grps             =  System<br>&gt; tau_t               =  0.1<br>&gt; ref_t               =  300.<br>&gt; * GMX 4.0.3 gives same result with "export GMX_NO_SOLV_OPT=1"<br>&gt; * GMX 4.0.3 gives same result when compiled with the tip4p  <br>&gt; optimization code fix.<br>&gt; * GMX 4.0.3 Using tip3p in place of tip4p gives same result.<br>&gt; <br>&gt; C. Does not fall apart by 7.5 ns when running section B options in parallel.<br>&gt; <br>&gt; Common MDP options:<br>&gt; comm_mode           =  linear<br>&gt; nstcomm             =  1<br>&gt; comm_grps           =  System<br>&gt; nstlist             =  5<br>&gt; ns_type             =  grid<br>&gt; pbc                 =  xyz<br>&gt; coulombtype         =  PME<br>&gt; rcoulomb            =  0.9<br>&gt; fourierspacing      =  0.12<br>&gt; pme_order           =  4<br>&gt; vdwtype             =  cut-off<br>&gt; rvdw_switch         =  0<br>&gt; rvdw                =  1.4<br>&gt; rlist               =  0.9<br>&gt; DispCorr            =  EnerPres<br>&gt; Pcoupl              =  Berendsen<br>&gt; pcoupltype          =  isotropic<br>&gt; compressibility     =  4.5e-5<br>&gt; ref_p               =  1.<br>&gt; tau_p               =  4.0<br>&gt; gen_temp            =  300.<br>&gt; gen_seed            =  9896<br>&gt; constraints         =  all-bonds<br>&gt; constraint_algorithm=  lincs<br>&gt; lincs-iter          =  1<br>&gt; lincs-order         =  6<br>&gt; gen_vel             =  no<br>&gt; unconstrained-start =  yes<br>&gt; dt                  =  0.004<br>&gt; <br>&gt; ##################<br>&gt; <br>&gt; My current hypothesis is that the sd integrator somehow functions  <br>&gt; differently in serial than in parallel in gromacs versions 3.3.1,  <br>&gt; 4.0.2, and 4.0.3. I suspect that this is not limited to tip4p, since I  <br>&gt; see disaggregation in tip3p also, although I did not control the tip3p  <br>&gt; run and this may not be related to the md/sd difference.<br>&gt; <br>&gt; I realize that I may have other problems, for example perhaps I should  <br>&gt; have used dt=1.0 instead of dt=0.1 while using the sd integrator, but  <br>&gt; the fact that a parallel run resolved the problem makes me think that  <br>&gt; it is something else.<br>&gt; <br>&gt; I am currently working to find a smaller test system, but would  <br>&gt; appreciate it if a developer can comment on the liklihood of my above  <br>&gt; hypothesis being correct. Also, any suggestions on sets of mdp options  <br>&gt; that might narrow down the possibilities would be greatly appreciated.<br>&gt; <br>&gt; I have included the entire .mdp file from the 4 core job that ran  <br>&gt; without disaggregation:<br>&gt; <br>&gt; integrator          =  sd<br>&gt; comm_mode           =  linear<br>&gt; nstcomm             =  1<br>&gt; comm_grps           =  System<br>&gt; nstlog              =  50000<br>&gt; nstlist             =  5<br>&gt; ns_type             =  grid<br>&gt; pbc                 =  xyz<br>&gt; coulombtype         =  PME<br>&gt; rcoulomb            =  0.9<br>&gt; fourierspacing      =  0.12<br>&gt; pme_order           =  4<br>&gt; vdwtype             =  cut-off<br>&gt; rvdw_switch         =  0<br>&gt; rvdw                =  1.4<br>&gt; rlist               =  0.9<br>&gt; DispCorr            =  EnerPres<br>&gt; Pcoupl              =  Berendsen<br>&gt; pcoupltype          =  isotropic<br>&gt; compressibility     =  4.5e-5<br>&gt; ref_p               =  1.<br>&gt; tau_p               =  4.0<br>&gt; tc_grps             =  System<br>&gt; tau_t               =  0.1<br>&gt; ref_t               =  300.<br>&gt; annealing           =  no<br>&gt; gen_temp            =  300.<br>&gt; gen_seed            =  9896<br>&gt; constraints         =  all-bonds<br>&gt; constraint_algorithm=  lincs<br>&gt; lincs-iter          =  1<br>&gt; lincs-order         =  6<br>&gt; energygrps          =  SOL DPC DPN<br>&gt; ; Free energy control stuff<br>&gt; free_energy              = no<br>&gt; init_lambda              = 0.00<br>&gt; delta_lambda             = 0<br>&gt; sc_alpha                 = 0.0<br>&gt; sc-power                 = 1.0<br>&gt; sc-sigma                 = 0.3<br>&gt; couple-moltype           = DPN<br>&gt; couple-lambda0           = vdw-q<br>&gt; couple-lambda1           = vdw<br>&gt; couple-intramol          = no<br>&gt; nsteps              =  50000<br>&gt; tinit               =  7600<br>&gt; dt                  =  0.004<br>&gt; nstxout             =  50000<br>&gt; nstvout             =  50000<br>&gt; nstfout             =  50000<br>&gt; nstenergy           =  2500<br>&gt; nstxtcout           =  2500<br>&gt; gen_vel             =  no<br>&gt; unconstrained-start =  yes<br>&gt; <br>&gt; ####<br>&gt; <br>&gt; Note that the free energy code was turned on in the above (with  <br>&gt; lambda=0). This is because I started the debugging when I thought that  <br>&gt; the free-energy code / tip4p combination was causing the differences.  <br>&gt; I also ran this exact mdp file in serial and observed disaggregation  <br>&gt; in ~2 ns.<br>&gt; <br>&gt; Thank you,<br>&gt; Chris.<br>&gt; <br>&gt; _______________________________________________<br>&gt; gmx-users mailing list    gmx-users@gromacs.org<br>&gt; http://www.gromacs.org/mailman/listinfo/gmx-users<br>&gt; Please search the archive at http://www.gromacs.org/search before posting!<br>&gt; Please don't post (un)subscribe requests to the list. Use the <br>&gt; www interface or send it to gmx-users-request@gromacs.org.<br>&gt; Can't post? Read http://www.gromacs.org/mailing_lists/users.php<br><br /><hr />See all the ways you can stay connected <a href='http://www.microsoft.com/windows/windowslive/default.aspx' target='_new'>to friends and family</a></body>
</html>