Chris,<br><br>depending on your system size and th interconnect this might be OK. <br><br>Thus you need to give us more information. E.g.: how many atoms, how many ns/day, what interconnect, PME?.<br><br>Also the messages at the end of the md.log might tell you some advices to improve performance.<br>
<br>Roland<br><br><div class="gmail_quote">On Tue, Mar 3, 2009 at 10:48 PM,  <span dir="ltr">&lt;<a href="mailto:chris.neale@utoronto.ca">chris.neale@utoronto.ca</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
Thanks Mark,<br>
<br>
your information is always useful. In this case, the page that you reference appears to be empty. All I see is &quot;There is currently no text in this page, you can search for this page title in other pages or edit this page.&quot;<br>

<br>
Thanks also for your consideration of the massive scaling issue.<br>
<br>
Chris.<br>
<br>
chris.neale at <a href="http://utoronto.ca" target="_blank">utoronto.ca</a> wrote:<br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
Hello,<br>
<br>
I am currently testing a large system on a power6 cluster. I have compiled gromacs 4.0.4 successfully, and it appears to be working fine for &lt;64 &quot;cores&quot; (sic, see later). First, I notice that it runs at approximately 1/2 the speed that it obtains on some older opterons, which is unfortunate but acceptable. Second, I run into some strange issues when I have a greater number of cores. Since there are 32 cores per node with simultaneous multithreading this yields 64 tasks inside one box, and I realize that these problems could be MPI related.<br>

<br>
Some background:<br>
This test system is stable for &gt; 100ns on an opteron so I am quite confident that I do not have a problem with my topology or starting structure.<br>
<br>
Compilation was successful with -O2 only when I modified the ./configure file as follows, otherwise I got a stray &#39;)&#39; and a linking error:<br>
[cneale at tcs-f11n05]$ diff configure.000 configure<br>
5052a5053<br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
ac_cv_f77_libs=&quot;-L/scratch/cneale/exe/fftw-3.1.2_aix/exec/lib -lxlf90 -L/usr/lpp/xlf/lib -lxlopt -lxlf -lxlomp_ser -lpthreads -lm -lc&quot;<br>
</blockquote></blockquote>
<br>
Rather than modify configure, I suggest you use a customized command<br>
line, such as the one described here<br>
<a href="http://wiki.gromacs.org/index.php/GROMACS_on_BlueGene" target="_blank">http://wiki.gromacs.org/index.php/GROMACS_on_BlueGene</a>. The output<br>
config.log will have a record of what you did, too.<br>
<br>
Sorry I can&#39;t help with the massive scaling issue.<br>
<br>
Mark<br>
<br>
_______________________________________________<br>
gmx-users mailing list    <a href="mailto:gmx-users@gromacs.org" target="_blank">gmx-users@gromacs.org</a><br>
<a href="http://www.gromacs.org/mailman/listinfo/gmx-users" target="_blank">http://www.gromacs.org/mailman/listinfo/gmx-users</a><br>
Please search the archive at <a href="http://www.gromacs.org/search" target="_blank">http://www.gromacs.org/search</a> before posting!<br>
Please don&#39;t post (un)subscribe requests to the list. Use thewww interface or send it to <a href="mailto:gmx-users-request@gromacs.org" target="_blank">gmx-users-request@gromacs.org</a>.<br>
Can&#39;t post? Read <a href="http://www.gromacs.org/mailing_lists/users.php" target="_blank">http://www.gromacs.org/mailing_lists/users.php</a><br>
</blockquote></div><br><br clear="all"><br>-- <br>ORNL/UT Center for Molecular Biophysics <a href="http://cmb.ornl.gov">cmb.ornl.gov</a><br>865-241-1537, ORNL PO BOX 2008 MS6309<br>