Hi Dr .Warren, <br><br>Yes I tried without pull code. Atleast I ran for 10ns and it works (i.e DPPC bilayer with a butane molecule in the water). I am not sure why it doesnt work with pull code. <br><br>Mohan<br><br><br><br>
<br><div><span class="gmail_quote">On 13/04/06, <b class="gmail_sendername"><a href="mailto:gmx-users-request@gromacs.org">gmx-users-request@gromacs.org</a></b> &lt;<a href="mailto:gmx-users-request@gromacs.org">gmx-users-request@gromacs.org
</a>&gt; wrote:</span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">Send gmx-users mailing list submissions to<br>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;<a href="mailto:gmx-users@gromacs.org">
gmx-users@gromacs.org</a><br><br>To subscribe or unsubscribe via the World Wide Web, visit<br>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;<a href="http://www.gromacs.org/mailman/listinfo/gmx-users">http://www.gromacs.org/mailman/listinfo/gmx-users</a><br>or, via email, send a message with subject or body 'help' to
<br>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;<a href="mailto:gmx-users-request@gromacs.org">gmx-users-request@gromacs.org</a><br><br>You can reach the person managing the list at<br>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;<a href="mailto:gmx-users-owner@gromacs.org">gmx-users-owner@gromacs.org
</a><br><br>When replying, please edit your Subject line so it is more specific<br>than &quot;Re: Contents of gmx-users digest...&quot;<br><br><br>Today's Topics:<br><br>&nbsp;&nbsp; 1. RE: Using Pull code with Coarse grain model (Dallas B. Warren)
<br>&nbsp;&nbsp; 2. (error in MD run) (jahanshah ashkani)<br>&nbsp;&nbsp; 3. REMD (Dongsheng Zhang)<br>&nbsp;&nbsp; 4. Re: REMD (Mark Abraham)<br>&nbsp;&nbsp; 5. Re: REMD (Dongsheng Zhang)<br>&nbsp;&nbsp; 6. Re: REMD (David van der Spoel)<br>&nbsp;&nbsp; 7. Re: Using Pull code with Coarse grain model (David van der Spoel)
<br><br><br>----------------------------------------------------------------------<br><br>Message: 1<br>Date: Thu, 13 Apr 2006 10:36:04 +1000<br>From: &quot;Dallas B. Warren&quot; &lt;<a href="mailto:Dallas.Warren@vcp.monash.edu.au">
Dallas.Warren@vcp.monash.edu.au</a>&gt;<br>Subject: RE: [gmx-users] Using Pull code with Coarse grain model<br>To: Discussion list for GROMACS users &lt;<a href="mailto:gmx-users@gromacs.org">gmx-users@gromacs.org</a>&gt;
<br>Message-ID:<br>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&lt;<a href="mailto:89907EA1DCFB7548A431C13A270F9DD5018D4468@prk-exch-01.vcp.local">89907EA1DCFB7548A431C13A270F9DD5018D4468@prk-exch-01.vcp.local</a>&gt;<br>Content-Type: text/plain; charset=us-ascii
<br><br>Mohan,<br><br>What happens if you run it without using the pull code? i.e. is it a MD<br>parameter problem or something to do with the pull code specifically.<br><br>Catch ya,<br><br>Dr. Dallas Warren<br>Lecturer<br>
Department of Pharmaceutical Biology and Pharmacology<br>Victorian College of Pharmacy, Monash University<br>381 Royal Parade, Parkville VIC 3010<br><a href="mailto:dallas.warren@vcp.monash.edu.au">dallas.warren@vcp.monash.edu.au
</a><br>+61 3 9903 9524<br>---------------------------------<br>When the only tool you own is a hammer, every problem begins to resemble<br>a nail.<br><br><br>------------------------------<br><br>Message: 2<br>Date: Wed, 12 Apr 2006 21:16:14 -0700 (PDT)
<br>From: jahanshah ashkani &lt;<a href="mailto:ashkani_2003@yahoo.com">ashkani_2003@yahoo.com</a>&gt;<br>Subject: [gmx-users] (error in MD run)<br>To: <a href="mailto:gmx-users@gromacs.org">gmx-users@gromacs.org</a><br>Message-ID: &lt;
<a href="mailto:20060413041614.30959.qmail@web50409.mail.yahoo.com">20060413041614.30959.qmail@web50409.mail.yahoo.com</a>&gt;<br>Content-Type: text/plain; charset=&quot;iso-8859-1&quot;<br><br>Hi,<br>&nbsp;&nbsp;I have a problem in md run:
<br>&nbsp;&nbsp;"Fatal error: realloc for nlist-&gt;jjnr (160825344 bytes, file ns.c, line 368, nlis t-&gt;jjnr=0x0x64960020): No such file or directory"<br>&nbsp;&nbsp;My .tpr and .top files are including:<br><br>&nbsp;&nbsp;[ molecules ]<br>&nbsp;&nbsp;; Compound&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;#mols
<br>&nbsp;&nbsp;Protein&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 1<br>&nbsp;&nbsp;SOL&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 686247<br>&nbsp;&nbsp;NA+&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;131<br><br>&nbsp;&nbsp;And .mdp file is including:<br><br>&nbsp;&nbsp;title&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;=<br>&nbsp;&nbsp;cpp&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;= cpp<br>&nbsp;&nbsp;include&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;=
<br>&nbsp;&nbsp;define&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = -DFLEXIBLE<br>&nbsp;&nbsp;integrator&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = steep<br>&nbsp;&nbsp;tinit&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;= 0<br>&nbsp;&nbsp;dt&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = 0.001<br>&nbsp;&nbsp;nsteps&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = 400<br>&nbsp;&nbsp;Tcoupl&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;= berendsen
<br>&nbsp;&nbsp;tc_grps&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = protein&nbsp;&nbsp;sol&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;NA+<br>&nbsp;&nbsp;tau_t&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = 0.1&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;0.1&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;0.1<br>&nbsp;&nbsp;Ref_t&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = 300&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;300&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;300<br>&nbsp;&nbsp;emtol&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;= 0.00001<br>&nbsp;&nbsp;emstep&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = 
0.1<br>&nbsp;&nbsp;nstcgsteep&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = 1000<br><br>&nbsp;&nbsp;I would be glad if someone helps me in this case.<br>&nbsp;&nbsp;Thank you very much.<br><br>&nbsp;&nbsp;Best,<br>&nbsp;&nbsp;Jahanshah Ashkani<br><br><br><br><br>---------------------------------<br>New Yahoo! Messenger with Voice. Call regular phones from your PC and save big.
<br>-------------- next part --------------<br>An HTML attachment was scrubbed...<br>URL: <a href="http://www.gromacs.org/pipermail/gmx-users/attachments/20060412/b95f142f/attachment-0001.html">http://www.gromacs.org/pipermail/gmx-users/attachments/20060412/b95f142f/attachment-0001.html
</a><br><br>------------------------------<br><br>Message: 3<br>Date: Thu, 13 Apr 2006 01:06:52 -0400<br>From: Dongsheng Zhang &lt;<a href="mailto:dong@pampas.chem.purdue.edu">dong@pampas.chem.purdue.edu</a>&gt;<br>Subject: [gmx-users] REMD
<br>To: Discussion list for GROMACS users &lt;<a href="mailto:gmx-users@gromacs.org">gmx-users@gromacs.org</a>&gt;<br>Message-ID: &lt;<a href="mailto:1144904812.10367.15.camel@pampas.chem.purdue.edu">1144904812.10367.15.camel@pampas.chem.purdue.edu
</a>&gt;<br>Content-Type: text/plain<br><br>Dear gmx users:<br><br>I am trying to run REMD with two replicas (for testing). I used<br>grompp -f -c -p -o replica0 to get replica0.tpr<br>grompp -f -c -p -o replica1 to get replica1.tpr
<br><br>then used<br>mdrun_mpi -np 2 -multi -replex 500 -reseed -1 -s replica -deffnm replica<br>-v -N 2<br>to run it.<br><br>I got an error message &quot;Segmentation fault&quot; from my script output, but<br>no error message in both log files. When I tried to run individual tpr
<br>file, it worked fine.<br><br>Could someone can comment why I got &quot;Segmentation fault&quot;? Thank you for<br>your help!<br><br><br>Dongsheng<br><br><br><br><br>------------------------------<br><br>Message: 4<br>
Date: Thu, 13 Apr 2006 15:17:30 +1000 (EST)<br>From: &quot;Mark Abraham&quot; &lt;<a href="mailto:mark.abraham@anu.edu.au">mark.abraham@anu.edu.au</a>&gt;<br>Subject: Re: [gmx-users] REMD<br>To: &quot;Discussion list for GROMACS users&quot; &lt;
<a href="mailto:gmx-users@gromacs.org">gmx-users@gromacs.org</a>&gt;<br>Message-ID:<br>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&lt;<a href="mailto:58846.150.203.7.225.1144905450.squirrel@sqmail.anu.edu.au">58846.150.203.7.225.1144905450.squirrel@sqmail.anu.edu.au
</a>&gt;<br>Content-Type: text/plain;charset=iso-8859-1<br><br>&gt; Dear gmx users:<br>&gt;<br>&gt; I am trying to run REMD with two replicas (for testing). I used<br>&gt; grompp -f -c -p -o replica0 to get replica0.tpr<br>
&gt; grompp -f -c -p -o replica1 to get replica1.tpr<br>&gt;<br>&gt; then used<br>&gt; mdrun_mpi -np 2 -multi -replex 500 -reseed -1 -s replica -deffnm replica<br>&gt; -v -N 2<br>&gt; to run it.<br><br>mdrun doesn't take '-N 2' but I'm not sure this is the problem. Otherwise,
<br>looks fine to me.<br><br>&gt; I got an error message &quot;Segmentation fault&quot; from my script output, but<br>&gt; no error message in both log files. When I tried to run individual tpr<br>&gt; file, it worked fine.
<br>&gt;<br>&gt; Could someone can comment why I got &quot;Segmentation fault&quot;? Thank you for<br>&gt; your help!<br><br>Your MPI setup might require you use a command like &quot;mpirun -N 2 mdrun_mpi<br>...&quot; to make it work - the segfault might be a gromacs-MPI interaction
<br>problem. If you can run an MPI process from the command line you may get<br>more helpful feedback.<br><br>Mark<br><br><br><br>------------------------------<br><br>Message: 5<br>Date: Thu, 13 Apr 2006 02:42:20 -0400<br>
From: Dongsheng Zhang &lt;<a href="mailto:dong@pampas.chem.purdue.edu">dong@pampas.chem.purdue.edu</a>&gt;<br>Subject: Re: [gmx-users] REMD<br>To: Discussion list for GROMACS users &lt;<a href="mailto:gmx-users@gromacs.org">
gmx-users@gromacs.org</a>&gt;<br>Message-ID: &lt;<a href="mailto:1144910541.16761.8.camel@pampas.chem.purdue.edu">1144910541.16761.8.camel@pampas.chem.purdue.edu</a>&gt;<br>Content-Type: text/plain<br><br>dear Mark,<br><br>
Thank you very much for your prompt reply.&nbsp;&nbsp;I try to use parallel<br>computing. It works fine.<br>for example: grompp -f -c -p -o replica0 -np 2 -sort -shuffle<br>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; to&nbsp;&nbsp;get replica0.tpr<br>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; then, mdrun_mpi -np 2 -s 
replica0.tpr<br><br><br>The error message mentioned in the previous email looks very strange to<br>me. MPI works fine, and individual tpr runs fine. The error message<br>comes out before replica exchange. replica0 stops at step 500, replica1
<br>stops at step 400, even the output informatio can't be complted. The<br>last lines in replica1.log is<br><br>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;Step&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Time&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Lambda<br>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;400&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;0.80000&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;0.00000<br><br>&nbsp;&nbsp; Rel. Constraint Deviation:&nbsp;&nbsp;Max&nbsp;&nbsp;&nbsp;&nbsp;between atoms&nbsp;&nbsp;&nbsp;&nbsp; RMS
<br><br><br>I hope these further information can help you to figure out what's the<br>problem.<br><br>Best Wishes!<br><br>Dongsheng<br><br><br>On Thu, 2006-04-13 at 15:17 +1000, Mark Abraham wrote:<br>&gt; &gt; Dear gmx users:
<br>&gt; &gt;<br>&gt; &gt; I am trying to run REMD with two replicas (for testing). I used<br>&gt; &gt; grompp -f -c -p -o replica0 to get replica0.tpr<br>&gt; &gt; grompp -f -c -p -o replica1 to get replica1.tpr<br>&gt; &gt;
<br>&gt; &gt; then used<br>&gt; &gt; mdrun_mpi -np 2 -multi -replex 500 -reseed -1 -s replica -deffnm replica<br>&gt; &gt; -v -N 2<br>&gt; &gt; to run it.<br>&gt;<br>&gt; mdrun doesn't take '-N 2' but I'm not sure this is the problem. Otherwise,
<br>&gt; looks fine to me.<br>&gt;<br>&gt; &gt; I got an error message &quot;Segmentation fault&quot; from my script output, but<br>&gt; &gt; no error message in both log files. When I tried to run individual tpr<br>&gt; &gt; file, it worked fine.
<br>&gt; &gt;<br>&gt; &gt; Could someone can comment why I got &quot;Segmentation fault&quot;? Thank you for<br>&gt; &gt; your help!<br>&gt;<br>&gt; Your MPI setup might require you use a command like &quot;mpirun -N 2 mdrun_mpi
<br>&gt; ...&quot; to make it work - the segfault might be a gromacs-MPI interaction<br>&gt; problem. If you can run an MPI process from the command line you may get<br>&gt; more helpful feedback.<br>&gt;<br>&gt; Mark<br>
&gt;<br>&gt; _______________________________________________<br>&gt; gmx-users mailing list&nbsp;&nbsp;&nbsp;&nbsp;<a href="mailto:gmx-users@gromacs.org">gmx-users@gromacs.org</a><br>&gt; <a href="http://www.gromacs.org/mailman/listinfo/gmx-users">
http://www.gromacs.org/mailman/listinfo/gmx-users</a><br>&gt; Please don't post (un)subscribe requests to the list. Use the<br>&gt; www interface or send it to <a href="mailto:gmx-users-request@gromacs.org">gmx-users-request@gromacs.org
</a>.<br>&gt; Can't post? Read <a href="http://www.gromacs.org/mailing_lists/users.php">http://www.gromacs.org/mailing_lists/users.php</a><br><br><br>------------------------------<br><br>Message: 6<br>Date: Thu, 13 Apr 2006 09:52:42 +0200
<br>From: David van der Spoel &lt;<a href="mailto:spoel@xray.bmc.uu.se">spoel@xray.bmc.uu.se</a>&gt;<br>Subject: Re: [gmx-users] REMD<br>To: Discussion list for GROMACS users &lt;<a href="mailto:gmx-users@gromacs.org">gmx-users@gromacs.org
</a>&gt;<br>Message-ID: &lt;<a href="mailto:443E034A.2020603@xray.bmc.uu.se">443E034A.2020603@xray.bmc.uu.se</a>&gt;<br>Content-Type: text/plain; charset=ISO-8859-1; format=flowed<br><br>Dongsheng Zhang wrote:<br>&gt; dear Mark,
<br>&gt;<br>&gt; Thank you very much for your prompt reply.&nbsp;&nbsp;I try to use parallel<br>&gt; computing. It works fine.<br>&gt; for example: grompp -f -c -p -o replica0 -np 2 -sort -shuffle<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;to&nbsp;&nbsp;get replica0.tpr
<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;then, mdrun_mpi -np 2 -s replica0.tpr<br>&gt;<br><br>please give EXACT command line and do use mpirun<br><br><br>&gt;<br>&gt; The error message mentioned in the previous email looks very strange to<br>
&gt; me. MPI works fine, and individual tpr runs fine. The error message<br>&gt; comes out before replica exchange. replica0 stops at step 500, replica1<br>&gt; stops at step 400, even the output informatio can't be complted. The
<br>&gt; last lines in replica1.log is<br>&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Step&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Time&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Lambda<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 400&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;0.80000&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;0.00000<br>&gt;<br>&gt;&nbsp;&nbsp;&nbsp;&nbsp;Rel. Constraint Deviation:&nbsp;&nbsp;Max&nbsp;&nbsp;&nbsp;&nbsp;between atoms&nbsp;&nbsp;&nbsp;&nbsp; RMS
<br>&gt;<br>&gt;<br>&gt; I hope these further information can help you to figure out what's the<br>&gt; problem.<br>&gt;<br>&gt; Best Wishes!<br>&gt;<br>&gt; Dongsheng<br>&gt;<br>&gt;<br>&gt; On Thu, 2006-04-13 at 15:17 +1000, Mark Abraham wrote:
<br>&gt;&gt;&gt; Dear gmx users:<br>&gt;&gt;&gt;<br>&gt;&gt;&gt; I am trying to run REMD with two replicas (for testing). I used<br>&gt;&gt;&gt; grompp -f -c -p -o replica0 to get replica0.tpr<br>&gt;&gt;&gt; grompp -f -c -p -o replica1 to get 
replica1.tpr<br>&gt;&gt;&gt;<br>&gt;&gt;&gt; then used<br>&gt;&gt;&gt; mdrun_mpi -np 2 -multi -replex 500 -reseed -1 -s replica -deffnm replica<br>&gt;&gt;&gt; -v -N 2<br>&gt;&gt;&gt; to run it.<br>&gt;&gt; mdrun doesn't take '-N 2' but I'm not sure this is the problem. Otherwise,
<br>&gt;&gt; looks fine to me.<br>&gt;&gt;<br>&gt;&gt;&gt; I got an error message &quot;Segmentation fault&quot; from my script output, but<br>&gt;&gt;&gt; no error message in both log files. When I tried to run individual tpr
<br>&gt;&gt;&gt; file, it worked fine.<br>&gt;&gt;&gt;<br>&gt;&gt;&gt; Could someone can comment why I got &quot;Segmentation fault&quot;? Thank you for<br>&gt;&gt;&gt; your help!<br>&gt;&gt; Your MPI setup might require you use a command like &quot;mpirun -N 2 mdrun_mpi
<br>&gt;&gt; ...&quot; to make it work - the segfault might be a gromacs-MPI interaction<br>&gt;&gt; problem. If you can run an MPI process from the command line you may get<br>&gt;&gt; more helpful feedback.<br>&gt;&gt;<br>
&gt;&gt; Mark<br>&gt;&gt;<br>&gt;&gt; _______________________________________________<br>&gt;&gt; gmx-users mailing list&nbsp;&nbsp;&nbsp;&nbsp;<a href="mailto:gmx-users@gromacs.org">gmx-users@gromacs.org</a><br>&gt;&gt; <a href="http://www.gromacs.org/mailman/listinfo/gmx-users">
http://www.gromacs.org/mailman/listinfo/gmx-users</a><br>&gt;&gt; Please don't post (un)subscribe requests to the list. Use the<br>&gt;&gt; www interface or send it to <a href="mailto:gmx-users-request@gromacs.org">gmx-users-request@gromacs.org
</a>.<br>&gt;&gt; Can't post? Read <a href="http://www.gromacs.org/mailing_lists/users.php">http://www.gromacs.org/mailing_lists/users.php</a><br>&gt; _______________________________________________<br>&gt; gmx-users mailing list&nbsp;&nbsp;&nbsp;&nbsp;
<a href="mailto:gmx-users@gromacs.org">gmx-users@gromacs.org</a><br>&gt; <a href="http://www.gromacs.org/mailman/listinfo/gmx-users">http://www.gromacs.org/mailman/listinfo/gmx-users</a><br>&gt; Please don't post (un)subscribe requests to the list. Use the
<br>&gt; www interface or send it to <a href="mailto:gmx-users-request@gromacs.org">gmx-users-request@gromacs.org</a>.<br>&gt; Can't post? Read <a href="http://www.gromacs.org/mailing_lists/users.php">http://www.gromacs.org/mailing_lists/users.php
</a><br><br><br>--<br>David.<br>________________________________________________________________________<br>David van der Spoel, PhD, Assoc. Prof., Molecular Biophysics group,<br>Dept. of Cell and Molecular Biology, Uppsala University.
<br>Husargatan 3, Box 596,&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;75124 Uppsala, Sweden<br>phone:&nbsp;&nbsp;46 18 471 4205&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;fax: 46 18 511 755<br><a href="mailto:spoel@xray.bmc.uu.se">spoel@xray.bmc.uu.se</a>&nbsp;&nbsp;&nbsp;&nbsp;<a href="mailto:spoel@gromacs.org">spoel@gromacs.org
</a>&nbsp;&nbsp; <a href="http://folding.bmc.uu.se">http://folding.bmc.uu.se</a><br>++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++<br><br><br>------------------------------<br><br>Message: 7<br>Date: Thu, 13 Apr 2006 09:53:29 +0200
<br>From: David van der Spoel &lt;<a href="mailto:spoel@xray.bmc.uu.se">spoel@xray.bmc.uu.se</a>&gt;<br>Subject: Re: [gmx-users] Using Pull code with Coarse grain model<br>To: Discussion list for GROMACS users &lt;<a href="mailto:gmx-users@gromacs.org">
gmx-users@gromacs.org</a>&gt;<br>Message-ID: &lt;<a href="mailto:443E0379.3020608@xray.bmc.uu.se">443E0379.3020608@xray.bmc.uu.se</a>&gt;<br>Content-Type: text/plain; charset=ISO-8859-1; format=flowed<br><br>Mohan Boggara wrote:
<br>&gt; Hi all,<br>&gt;<br>&gt; I am trying to use the pull code for constrained force method in a<br>&gt; coarse grain dppc bilayer model developed by Dr. S.J. Marrink. But I am<br>&gt; getting error message Warning: pressure scaling &gt; 1% . The problem
<br>&gt; persist even after I changed the tau_p from 1.0 to 1.5.<br>&gt; Has anyone had any success on similar runs.<br>&gt;<br>change it to 20 or 50.<br><br><br><br><br>&gt; Mohan<br>&gt;<br>&gt; --<br>&gt; Mohan Boggara
<br>&gt; Department of Chemical Engineering<br>&gt; University of Houston<br>&gt; S222 Engineering Bldg 1<br>&gt; Houston, Texas-77204, USA<br>&gt; Mobile: 1-713-259-2166<br>&gt; Office: 1-713-743-4314<br>&gt; <a href="http://polymer.chee.uh.edu/">
http://polymer.chee.uh.edu/</a><br>&gt;<br>&gt; All human actions have one or more of these seven causes: chance,<br>&gt; nature, compulsion, habit, reason, passion, and desire.-- Aristotle<br>&gt;<br>&gt;<br>&gt; ------------------------------------------------------------------------
<br>&gt;<br>&gt; _______________________________________________<br>&gt; gmx-users mailing list&nbsp;&nbsp;&nbsp;&nbsp;<a href="mailto:gmx-users@gromacs.org">gmx-users@gromacs.org</a><br>&gt; <a href="http://www.gromacs.org/mailman/listinfo/gmx-users">
http://www.gromacs.org/mailman/listinfo/gmx-users</a><br>&gt; Please don't post (un)subscribe requests to the list. Use the<br>&gt; www interface or send it to <a href="mailto:gmx-users-request@gromacs.org">gmx-users-request@gromacs.org
</a>.<br>&gt; Can't post? Read <a href="http://www.gromacs.org/mailing_lists/users.php">http://www.gromacs.org/mailing_lists/users.php</a><br><br><br>--<br>David.<br>________________________________________________________________________
<br>David van der Spoel, PhD, Assoc. Prof., Molecular Biophysics group,<br>Dept. of Cell and Molecular Biology, Uppsala University.<br>Husargatan 3, Box 596,&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;75124 Uppsala, Sweden<br>phone:&nbsp;&nbsp;46 18 471 4205&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;fax: 46 18 511 755
<br><a href="mailto:spoel@xray.bmc.uu.se">spoel@xray.bmc.uu.se</a>&nbsp;&nbsp;&nbsp;&nbsp;<a href="mailto:spoel@gromacs.org">spoel@gromacs.org</a>&nbsp;&nbsp; <a href="http://folding.bmc.uu.se">http://folding.bmc.uu.se</a><br>++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
<br><br><br>------------------------------<br><br>_______________________________________________<br>gmx-users mailing list<br><a href="mailto:gmx-users@gromacs.org">gmx-users@gromacs.org</a><br><a href="http://www.gromacs.org/mailman/listinfo/gmx-users">
http://www.gromacs.org/mailman/listinfo/gmx-users</a><br><br><br>End of gmx-users Digest, Vol 24, Issue 44<br>*****************************************<br></blockquote></div><br><br clear="all"><br>-- <br>Mohan Boggara<br>
Department of Chemical Engineering<br>University of Houston<br>S222 Engineering Bldg 1<br>Houston, Texas-77204, USA<br>Mobile: 1-713-259-2166<br>Office: 1-713-743-4314 <br><a href="http://polymer.chee.uh.edu/">http://polymer.chee.uh.edu/
</a><br><br>All human actions have one or more of these seven causes: chance, nature, compulsion, habit, reason, passion, and desire.-- Aristotle