I tried that way it basically creates 4 jobs and takes hold of 4 cpus but the problem is that it shows to take more time than it would normally without mpirun..and not only that a weird thing starts happening.Once being progressed to some steps it retreats back again to an older one and sometimes it just loops around in that fashion calculating practically the same set of steps over and over again.<br>
<br>I somehow feel that the tpr file which is needed for the mdrun was not built properly to run on 4 separate cores simultaneously.ANd that is why maybe actually the 4 cores are running the same copy of the program and so the same steps.And what i see is kinda race condition.I guess i compiled it properly with mpi so..now i am helpless.<br>
<br>Thanks for your help.Waiting for some more.<br><br><div class="gmail_quote">On Sun, Dec 21, 2008 at 7:56 PM, Manik Mayur <span dir="ltr">&lt;<a href="mailto:manik.mayur@gmail.com">manik.mayur@gmail.com</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;"><div class="Ih2E3d">On Sun, Dec 21, 2008 at 5:04 PM, Chitrita Dutta Roy <span dir="ltr">&lt;<a href="http://chitrita.md" target="_blank">chitrita.md</a>@<a href="http://gmail.com" target="_blank">gmail.com</a>&gt;</span> wrote:<br>
</div><div class="gmail_quote"><div class="Ih2E3d"><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
Thanks to all for helping me previously.<br>Now i am unable to arrange the .tpr file for position restraint mdrun on a quad core as in version 4.0.2 grompp -np is not a valid comand can anybody help me in building a tpr file for parallel run on 4 cores of a quad core machine .I have installed gromacs using Open MPI Library and my files are suffixed as _mpi.</blockquote>

<div>&nbsp;</div></div>try running: mpirun -np 4 mdrun_mpi options<div class="Ih2E3d"><br><br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">_______________________________________________<br>


gmx-users mailing list &nbsp; &nbsp;<a href="mailto:gmx-users@gromacs.org" target="_blank">gmx-users@gromacs.org</a><br>
<a href="http://www.gromacs.org/mailman/listinfo/gmx-users" target="_blank">http://www.gromacs.org/mailman/listinfo/gmx-users</a><br>
Please search the archive at <a href="http://www.gromacs.org/search" target="_blank">http://www.gromacs.org/search</a> before posting!<br>
Please don&#39;t post (un)subscribe requests to the list. Use the<br>
www interface or send it to <a href="mailto:gmx-users-request@gromacs.org" target="_blank">gmx-users-request@gromacs.org</a>.<br>
Can&#39;t post? Read <a href="http://www.gromacs.org/mailing_lists/users.php" target="_blank">http://www.gromacs.org/mailing_lists/users.php</a><br></blockquote></div></div><font color="#888888"><br><br clear="all"><br>-- <br>
_________________<br>HAPAX LEGOMENA<br>

</font><br>_______________________________________________<br>
gmx-users mailing list &nbsp; &nbsp;<a href="mailto:gmx-users@gromacs.org">gmx-users@gromacs.org</a><br>
<a href="http://www.gromacs.org/mailman/listinfo/gmx-users" target="_blank">http://www.gromacs.org/mailman/listinfo/gmx-users</a><br>
Please search the archive at <a href="http://www.gromacs.org/search" target="_blank">http://www.gromacs.org/search</a> before posting!<br>
Please don&#39;t post (un)subscribe requests to the list. Use the<br>
www interface or send it to <a href="mailto:gmx-users-request@gromacs.org">gmx-users-request@gromacs.org</a>.<br>
Can&#39;t post? Read <a href="http://www.gromacs.org/mailing_lists/users.php" target="_blank">http://www.gromacs.org/mailing_lists/users.php</a><br></blockquote></div><br>