<br clear="all">Thanks You all. <br>Mark you were right. Some how mpi was screwed up. Now I am able to run the job parallely. <br>Actually there were two different versions of openmpi and I suppose they were conflicting. Uninstalling both of them and instally the recent openmpi solved the problem<br>

<br>Chandan<br><br>--<br>Chandan kumar Choudhury<br>NCL, Pune<br>INDIA<br>
<br><br><div class="gmail_quote">On Mon, Feb 1, 2010 at 5:02 PM, Mark Abraham <span dir="ltr">&lt;<a href="mailto:Mark.Abraham@anu.edu.au" target="_blank">Mark.Abraham@anu.edu.au</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">


<div>On 01/02/10 20:19, Sarath Kumar wrote:<br>
</div><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;"><div>
<br>
<br>
    Message: 2<br>
    Date: Mon, 1 Feb 2010 12:31:32 +0530<br></div>
    From: Chandan Choudhury &lt;<a href="mailto:iitdckc@gmail.com" target="_blank">iitdckc@gmail.com</a> &lt;mailto:<a href="mailto:iitdckc@gmail.com" target="_blank">iitdckc@gmail.com</a>&gt;&gt;<div><br>
    Subject: Re: [gmx-users] error: Cannot compile and link MPI code with<br>
            mpicc<br>
    To: Discussion list for GROMACS users &lt;<a href="mailto:gmx-users@gromacs.org" target="_blank">gmx-users@gromacs.org</a><br></div>
    &lt;mailto:<a href="mailto:gmx-users@gromacs.org" target="_blank">gmx-users@gromacs.org</a>&gt;&gt;<div><br>
    Message-ID:<br>
    &lt;<a href="mailto:4e22679c1001312301x5ee854dbn401b1e11f8d4b6f3@mail.gmail.com" target="_blank">4e22679c1001312301x5ee854dbn401b1e11f8d4b6f3@mail.gmail.com</a><br></div>
    &lt;mailto:<a href="mailto:4e22679c1001312301x5ee854dbn401b1e11f8d4b6f3@mail.gmail.com" target="_blank">4e22679c1001312301x5ee854dbn401b1e11f8d4b6f3@mail.gmail.com</a>&gt;&gt;<div><div></div><div><br>
    Content-Type: text/plain; charset=&quot;iso-8859-1&quot;<br>
<br>
    Thanks.<br>
    I just added export CPPFLAGS=-I/usr/local/openmpi/include in the bashrc<br>
    file, and could compile the mpi version of gromacs.<br>
    The next thing is I got the error on executing mdrun_mpi -h<br>
    Following is the output. Kindly help.<br>
<br>
    corsica:/usr/local/gromacs/bin # mdrun_mpi -h<br>
    [corsica:17130] [NO-NAME] ORTE_ERROR_LOG: Not found in file<br>
    runtime/orte_init_stage1.c at line 182<br>
    --------------------------------------------------------------------------<br>
    It looks like orte_init failed for some reason; your parallel process is<br>
    likely to abort.  There are many reasons that a parallel process can<br>
    fail during orte_init; some of which are due to configuration or<br>
    environment problems.  This failure appears to be an internal failure;<br>
    here&#39;s some additional information (which may only be relevant to an<br>
    Open MPI developer):<br>
<br>
      orte_rml_base_select failed<br>
      --&gt; Returned value -13 instead of ORTE_SUCCESS<br>
<br>
    --------------------------------------------------------------------------<br>
    --------------------------------------------------------------------------<br>
    It looks like MPI_INIT failed for some reason; your parallel process is<br>
    likely to abort.  There are many reasons that a parallel process can<br>
    fail during MPI_INIT; some of which are due to configuration or<br>
    environment<br>
    problems.  This failure appears to be an internal failure; here&#39;s some<br>
    additional information (which may only be relevant to an Open MPI<br>
    developer):<br>
<br>
      ompi_mpi_init: orte_init_stage1 failed<br>
      --&gt; Returned &quot;Not found&quot; (-13) instead of &quot;Success&quot; (0)<br>
    --------------------------------------------------------------------------<br>
    *** An error occurred in MPI_Init<br>
    *** before MPI was initialized<br>
    *** MPI_ERRORS_ARE_FATAL (goodbye)<br>
    [corsica:17130] Abort before MPI_INIT completed successfully; not<br>
    able to<br>
    guarantee that all other processes were killed!<br>
<br>
    --<br>
    Chandan kumar Choudhury<br>
    NCL, Pune<br>
    INDIA<br>
<br>
<br>
<br>
<br>
U will be getting error s like this<br>
as the MPI failed.<br>
When u run mdrun with MPI.<br>
  If u use this CPPFLAGS, and i also had a problem.<br>
When i used this option, after that i was unable to revert back it to<br>
the original state also.<br>
<br>
So the better option update the gcc, c++ compilers,<br>
If u have doubt in this, remove gromacs, All MPi.<br>
<br>
then do yum install -y *openmpi*<br>
<br>
--It will automatically install the missing libraries in dependencies.<br>
<br>
and then download fftw ---latest<br>
<br>
the install fftw with<br>
./configure  --enable-threads --enable-mpi<br>
the gromacs<br>
./configure  --enable-threads --enable-mpi<br>
<br>
<br>
this will surely work, because in order gromacs work with MPI.<br>
U should compile fftw with MPI as above.<br>
</div></div></blockquote>
<br>
None of this will help if the MPI environment is not configured, e.g. a hostfile set up. Chandan needs to get a test MPI program to run before there is evidence any of this discussion belongs on the GROMACS mailing last.<br>


<font color="#888888">
<br>
Mark</font><div><div></div><div><br>
-- <br>
gmx-users mailing list    <a href="mailto:gmx-users@gromacs.org" target="_blank">gmx-users@gromacs.org</a><br>
<a href="http://lists.gromacs.org/mailman/listinfo/gmx-users" target="_blank">http://lists.gromacs.org/mailman/listinfo/gmx-users</a><br>
Please search the archive at <a href="http://www.gromacs.org/search" target="_blank">http://www.gromacs.org/search</a> before posting!<br>
Please don&#39;t post (un)subscribe requests to the list. Use the www interface or send it to <a href="mailto:gmx-users-request@gromacs.org" target="_blank">gmx-users-request@gromacs.org</a>.<br>
Can&#39;t post? Read <a href="http://www.gromacs.org/mailing_lists/users.php" target="_blank">http://www.gromacs.org/mailing_lists/users.php</a><br>
</div></div></blockquote></div><br>