<html>
<head>
<style><!--
.hmmessage P
{
margin:0px;
padding:0px
}
body.hmmessage
{
font-size: 10pt;
font-family:Verdana
}
--></style>
</head>
<body class='hmmessage'>
Hi,<br><br>This is a silly bug with nose-hoover and pbc=no.<br>I fixed it for 4.0.8 (if we will ever release that).<br><br>To fix it you only need to move a brace up 4 lines in src/mdlib/init.c<br>Or you can use the v-rescale thermostat.<br><br>Berk<br><br>--- a/src/mdlib/init.c<br>+++ b/src/mdlib/init.c<br>@@ -119,9 +119,9 @@ static void set_state_entries(t_state *state,t_inputrec *ir,<br>int nnodes)<br>&nbsp;&nbsp;&nbsp;&nbsp; if (ir-&gt;epc != epcNO) {<br>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; state-&gt;flags |= (1&lt;&lt;estPRES_PREV);<br>&nbsp;&nbsp;&nbsp;&nbsp; }<br>-&nbsp;&nbsp;&nbsp; if (ir-&gt;etc == etcNOSEHOOVER) {<br>-&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; state-&gt;flags |= (1&lt;&lt;estNH_XI);<br>-&nbsp;&nbsp;&nbsp; }<br>+&nbsp; }<br>+&nbsp; if (ir-&gt;etc == etcNOSEHOOVER) {<br>+&nbsp;&nbsp;&nbsp; state-&gt;flags |= (1&lt;&lt;estNH_XI);<br>&nbsp;&nbsp; }<br>&nbsp;&nbsp; if (ir-&gt;etc == etcNOSEHOOVER || ir-&gt;etc == etcVRESCALE) {<br>&nbsp;&nbsp;&nbsp;&nbsp; state-&gt;flags |= (1&lt;&lt;estTC_INT);<br><br><br>&gt; Date: Wed, 10 Mar 2010 14:16:38 +0000<br>&gt; From: gmelaugh01@qub.ac.uk<br>&gt; To: gmx-users@gromacs.org<br>&gt; Subject: [gmx-users] problems with non pbc simulations in parallel<br>&gt; <br>&gt; Hi all<br>&gt; <br>&gt; I have installed gromacs-4.0.7-parallel with open mpi. I have<br>&gt; successfully ran a few short simulations on 2,3 and 4 nodes using pbc. I<br>&gt; am now interested in simulating a cluster of 32 molecules with no pbc in<br>&gt; parallel and the simulation doe not proceed. I have set by box vectors<br>&gt; to 0 0 0 in the conf.gro file, pbc = no in the mdp file, and use<br>&gt; dparticle decomposition. The feedback I get from the following command<br>&gt; <br>&gt; nohup mpirun -np 2 /local1/gromacs-4.0.7-parallel/bin/mdrun -pd -s &amp;<br>&gt; <br>&gt; is<br>&gt; <br>&gt; Back Off! I just backed up md.log to ./#md.log.1#<br>&gt; Reading file topol.tpr, VERSION 4.0.7 (single precision)<br>&gt; starting mdrun 'test of 32 hexylcage molecules'<br>&gt; 1000 steps,      0.0 ps.<br>&gt; [emerald:22662] *** Process received signal ***<br>&gt; [emerald:22662] Signal: Segmentation fault (11)<br>&gt; [emerald:22662] Signal code: Address not mapped (1)<br>&gt; [emerald:22662] Failing at address: (nil)<br>&gt; [emerald:22662] [ 0] /lib64/libpthread.so.0 [0x7fbc17eefa90]<br>&gt; [emerald:22662] [ 1]<br>&gt; /local1/gromacs-4.0.7-parallel/bin/mdrun(nosehoover_tcoupl+0x74) [0x436874]<br>&gt; [emerald:22662] [ 2]<br>&gt; /local1/gromacs-4.0.7-parallel/bin/mdrun(update+0x171) [0x4b2311]<br>&gt; [emerald:22662] [ 3]<br>&gt; /local1/gromacs-4.0.7-parallel/bin/mdrun(do_md+0x2608) [0x42dd38]<br>&gt; [emerald:22662] [ 4]<br>&gt; /local1/gromacs-4.0.7-parallel/bin/mdrun(mdrunner+0xe33) [0x430973]<br>&gt; [emerald:22662] [ 5]<br>&gt; /local1/gromacs-4.0.7-parallel/bin/mdrun(main+0x5b8) [0x431128]<br>&gt; [emerald:22662] [ 6] /lib64/libc.so.6(__libc_start_main+0xe6)<br>&gt; [0x7fbc17ba6586]<br>&gt; [emerald:22662] [ 7] /local1/gromacs-4.0.7-parallel/bin/mdrun [0x41e1e9]<br>&gt; [emerald:22662] *** End of error message ***<br>&gt; --------------------------------------------------------------------------<br>&gt; mpirun noticed that process rank 1 with PID 22662 on node emerald exited<br>&gt; on signal 11 (Segmentation fault).<br>&gt; <br>&gt; p.s I have ran several of these non pbc simulations with the same system<br>&gt; in serial and have never experienced a problem. Has anyone ever come<br>&gt; across this sort of problem before? and if so could you please provide<br>&gt; some advice.<br>&gt; <br>&gt; Many Thanks<br>&gt; <br>&gt; Gavin<br>&gt; <br>&gt; -- <br>&gt; gmx-users mailing list    gmx-users@gromacs.org<br>&gt; http://lists.gromacs.org/mailman/listinfo/gmx-users<br>&gt; Please search the archive at http://www.gromacs.org/search before posting!<br>&gt; Please don't post (un)subscribe requests to the list. Use the <br>&gt; www interface or send it to gmx-users-request@gromacs.org.<br>&gt; Can't post? Read http://www.gromacs.org/mailing_lists/users.php<br>                                               <br /><hr />Express yourself instantly with MSN Messenger! <a href='http://clk.atdmt.com/AVE/go/onm00200471ave/direct/01/' target='_new'>MSN Messenger</a></body>
</html>