<FONT size=2>  <div>Dear gmx users,</div>  <div>I have some problem regarding scalling factor of cluster. Here I have given cluster specifications, installation procedure, i request you go through query and suggest me. </div>  <div>&nbsp;</div>  <div>Here is the system specifications:</div>  <div>Master node: Intel Pentium 4, 3.0 GHz with 64HT 800 MHz FSB/2 MB L2</div>  <div>Slave Nodes: Intel Xeon, 3.0 Ghz with HT 800 MHz FSB/2 MB L2</div>  <div>OS : Redhat Linux Enterprizes 4.0, 64 bit</div>  <div>&nbsp;</div>  <div>I downloaded fftw-3.0.1.tar.gz. and gromacs-3.3.1tar.gz from gromacs website.</div>  <div>For parallel installation, I used the fallowing commands(in master node, in root),</div>  <div>&nbsp;</div>  <div>For fftw instalation..</div>  <div>./configure --enable-float --enable-sse --enable-mpi</div>  <div>make</div>  <div>make install</div>  <div>&nbsp;</div>  <div>For gromacs installation..</div>  <div>./configure --enable-mpi</div>  <div>make</div>  <div>make
 mdrun</div>  <div>make install</div>  <div>make install-mdrun</div>  <div>make links</div>  <div>It was installed in /opt/gromacs/</div>  <div>I didn't get any error messages</div>  <div>&nbsp;</div>  <div>To the gromacs in parallel, I have used the fallowing commands...</div>  <div>grompp -f equilibrium.mdp -n index.ndx -p dopc.top -c dopc.pdb -np 5 -o dopc-eq.tpr</div>  <div>mpirun -np 5 -machinefile gmxguest -nolocal &nbsp;/opt/gromacs/bin/mdrunmpi -s dopc-eq.tpr -c dopc-eq.pdb -o dopc-eq.trr</div>  <div>(Note: gmxguest file contains five node names) I checked in 5 nodes, job is going in all nodes.</div>  <div>&nbsp;</div>  <div>The cluster took 22 hours to finish the job but same job with same time scale in with one Intel Pentium 4, 3.0 GHz , 64bit, rehat linux OS, it took 26 hours.</div>  <div>My question is why it is happening, is there any problem in installing or gromacs not support this type of clusters.</div>  <div>To improve scalling factor of cluster, what i
 have to do?</div>  <div>Any suggestion is appreciated.</div>  <div>Thank you in advance.</div>  <div>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; with regards,</div>  <div>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Nagaraju Mulpuri. </div>  <div>&nbsp;</div></FONT><p>&#32;

<hr size=1>Don't be flakey. <a href="http://us.rd.yahoo.com/evt=43909/*http://mobile.yahoo.com/mail">Get Yahoo! Mail for Mobile</a> and <br><a href="http://us.rd.yahoo.com/evt=43909/*http://mobile.yahoo.com/mail">always stay connected</a> to friends.