<html>
<body>
Erik,<br>
I also have older systems which use Opteron 165 CPUs. I have run tests of
the AMD Opteron 165 CPUs (2.18GHz) against the Intel Core2 Duos (3GHz).
Twelve concurrent AutoDock jobs on each machine show the Core2 duos
outperforming the Opterons by a factor of two. <br><br>
The data I posted showed inconsistencies which have nothing to do with
memory bandwidth, and I was rather hoping for an analysis based upon the
manner in which GROMACS mdrun distributes its computing tasks.<br><br>
I don't believe my data shows memory bandwidth-limiting effects. For
example, three 'local' CPUs on the quad core are faster (6.65Gflops) than
one of the Quads (5.02 Gflops) and two from the cluster. How does that
support the memory bandwidth hypothesis?&nbsp; <br><br>
I figured that it might be possible that the GAMMA MP software is causing
overhead, but when I examined the distribution of tasks by GROMACS (in
the log I provided) it would seem that the tasks which mdrun distributed
to GAMMA actually were distributed well, but that that the manner in
which CPU0 hogged most of the mdrun calculations might be a bottleneck.
It was insight into GROMACS' mdrun distribution methodology which I was
seeking. Is there any quantitative data available for me to
review?<br><br>
Sincerely<br>
Trevor<br><br>
<br>
At 12:45 PM 5/27/2007, Erik Lindahl wrote:<br>
<blockquote type=cite class=cite cite>Hi Trevor,<br><br>
It's probably due to memory bandwidth limitations, as well as Intel's
design.<br><br>
Intel managed to get quad cores to market by gluing together two
dual-core chips. All communication between them has to go over the front
side bus though, and all eight cores in a system share the bandwidth to
memory.<br><br>
This can become a problem when you're running in parallel, since all
eight processes are communicating (=using the bus bandwidth) at once, and
have to share it. You will probably get much better performance by
running multiple (8) independent simulations.<br>
<br>
Essentially, there's no such thing as a free lunch. Intel's quad-core
chips are cheap, but have the same drawback as their first generation
dual-core chips. AMD's solution with real quad-cores and on-chip memory
controllers in Barcelona is looking a whole lot better, but I also expect
it to be quite a bit more expensive.<br><br>
You might want to test the CVS version for better scaling. The lower
amount of data communicated there might improve performance a bit for
you.<br><br>
Cheers,<br><br>
Erik<br><br>
<br>
On May 27, 2007, at 6:28 PM, Trevor Marshall wrote:<br><br>
<blockquote type=cite class=cite cite>Can anybody give me any ideas which
might help me optimize my new cluster for a more linear speed increase as
I add computing cores? The new intel Core2 CPUs are inherently very fast,
and my mdrun simulation performance is becoming asymptotic to a value
only about twice the speed I can get from a single core.<br><br>
I have included the log output from mdrun_mpi when using 5 cores at the
foot of this email. But here is the system overview<br>
&nbsp;<br>
My cluster system which comprises two computers running Fedora Core 6 and
MPI-GAMMA. Both have Intel Core2 CPUs running at 3GHz core speed
(overclocked). The main machine now has a sparkling new Core2 Quad
4-processor CPU and the remote still has a Core2-duo dual core
CPU.<br><br>
Networking hardware is crossover CAT6 cables. The GAMMA software is
connected thru one Intel PRO/1000 board in each computer, with MTU 9000.
A Gigabit adapter with Realtek chipset is the primary Linux network in
each machine, with MTU 1500. For the common filesystem I am running NFS
on a mounted filesystem with &quot;async&quot; declared in the exports
file. The mount is /dev/hde1 to /media and then /media is exported via
NFS to the cluster machine. File I/O does not seem to be a
bottleneck.<br><br>
With mdrun_mpi I am calculating a 240aa protein and ligand for 10,000
time intervals. Here are the results for various combinations of one,
two, three, four and five cores.<br><br>
One local core only running mdrun:
<x-tab>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;</x-tab>18.3
hr/nsec<x-tab>&nbsp;&nbsp;&nbsp;&nbsp;</x-tab>2.61 Gflops<br>
Two local
cores:<x-tab>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;</x-tab><x-tab>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;</x-tab><x-tab>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;</x-tab><x-tab>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;</x-tab>9.98
hr/nsec<x-tab>&nbsp;&nbsp;&nbsp;&nbsp;</x-tab>4.83 Gflops<br>
Three local
cores:<x-tab>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;</x-tab><x-tab>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;</x-tab><x-tab>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;</x-tab><x-tab>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;</x-tab>7.35
hr/nsec<x-tab>&nbsp;&nbsp;&nbsp;&nbsp;</x-tab>6.65 Gflops<br>
Four local cores (one also controlling)<x-tab>&nbsp;</x-tab>7.72
hr/nsec<x-tab>&nbsp;&nbsp;&nbsp;&nbsp;</x-tab>6.42 Gflops<br>
Three local cores and two remote cores:<x-tab>&nbsp;</x-tab>7.59
hr/nsec<x-tab>&nbsp;&nbsp;&nbsp;&nbsp;</x-tab>6.72 GFlops<br>
One local and 2 remote
cores:<x-tab>&nbsp;&nbsp;&nbsp;</x-tab><x-tab>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;</x-tab>9.76
hr/nsec<x-tab>&nbsp;&nbsp;&nbsp;&nbsp;</x-tab>5.02 GFlops<br><br>
I get good performance with one local core doing control, and three doing
calculations, giving 6.66 Gflops. However, adding two extra remote cores
only increases the speed a very small amount to 6.72 Gflops, even though
the log (below) shows good task distribution (I think).<br><br>
Is there some problem with scaling when using these new fast CPUs? Can I
tweak anything in mdrun_mpi to give better scaling?<br><br>
Sincerely<br>
Trevor<br>
------------------------------------------<br>
Trevor G Marshall, PhD<br>
School of Biological Sciences and Biotechnology, Murdoch University,
Western Australia<br>
Director, Autoimmunity Research Foundation, Thousand Oaks,
California<br>
Patron, Australian Autoimmunity Foundation.<br>
------------------------------------------<br>
&nbsp;<br>
<x-tab>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;</x-tab>M E G A -
F L O P S&nbsp;&nbsp; A C C O U N T I N G<br><br>
<x-tab>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;</x-tab>Parallel
run - timing based on wallclock.<br>
&nbsp;&nbsp; RF=Reaction-Field&nbsp; FE=Free Energy&nbsp;
SCFE=Soft-Core/Free Energy<br>
&nbsp;&nbsp; T=Tabulated&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
W3=SPC/TIP3p&nbsp;&nbsp;&nbsp; W4=TIP4p (single or pairs)<br>
&nbsp;&nbsp; NF=No Forces<br><br>
&nbsp;Computing:&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
M-Number&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; M-Flops&nbsp; %
of Flops<br>
-----------------------------------------------------------------------<br>
&nbsp;LJ&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
928.067418&nbsp;&nbsp;&nbsp; 30626.224794&nbsp;&nbsp;&nbsp;&nbsp;
1.1<br>
&nbsp;Coul(T)&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
886.762558&nbsp;&nbsp;&nbsp; 37244.027436&nbsp;&nbsp;&nbsp;&nbsp;
1.4<br>
&nbsp;Coul(T)
[W3]&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
92.882138&nbsp;&nbsp;&nbsp; 11610.267250&nbsp;&nbsp;&nbsp;&nbsp; 
0.4<br>
&nbsp;Coul(T) +
LJ&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
599.004388&nbsp;&nbsp;&nbsp; 32945.241340&nbsp;&nbsp;&nbsp;&nbsp;
1.2<br>
&nbsp;Coul(T) + LJ
[W3]&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
243.730360&nbsp;&nbsp;&nbsp; 33634.789680&nbsp;&nbsp;&nbsp;&nbsp;
1.2<br>
&nbsp;Coul(T) + LJ
[W3-W3]&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
3292.173000&nbsp; 1257610.086000&nbsp;&nbsp;&nbsp; 45.6<br>
&nbsp;Outer nonbonded
loop&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
945.783063&nbsp;&nbsp;&nbsp;&nbsp; 9457.830630&nbsp;&nbsp;&nbsp;&nbsp;
0.3<br>
&nbsp;1,4 nonbonded interactions&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
41.184118&nbsp;&nbsp;&nbsp;&nbsp; 3706.570620&nbsp;&nbsp;&nbsp;&nbsp;
0.1<br>
&nbsp;Spread Q
Bspline&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
51931.592640&nbsp;&nbsp; 103863.185280&nbsp;&nbsp;&nbsp;&nbsp; 3.8<br>
&nbsp;Gather F
Bspline&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
51931.592640&nbsp;&nbsp; 623179.111680&nbsp;&nbsp;&nbsp; 22.6<br>
&nbsp;3D-FFT&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
40498.449440&nbsp;&nbsp; 323987.595520&nbsp;&nbsp;&nbsp; 11.7<br>
&nbsp;Solve
PME&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
3000.300000&nbsp;&nbsp; 192019.200000&nbsp;&nbsp;&nbsp;&nbsp; 7.0<br>
&nbsp;NS-Pairs&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
1044.424912&nbsp;&nbsp;&nbsp; 21932.923152&nbsp;&nbsp;&nbsp;&nbsp;
0.8<br>
&nbsp;Reset In
Box&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
24.064040&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
216.576360&nbsp;&nbsp;&nbsp;&nbsp; 0.0<br>
&nbsp;Shift-X&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
961.696160&nbsp;&nbsp;&nbsp;&nbsp; 5770.176960&nbsp;&nbsp;&nbsp;&nbsp;
0.2<br>
&nbsp;CG-CoM&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
8.242234&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 239.024786&nbsp;&nbsp;&nbsp;&nbsp;
0.0<br>
&nbsp;Sum
Forces&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
721.272120&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
721.272120&nbsp;&nbsp;&nbsp;&nbsp; 0.0<br>
&nbsp;Bonds&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
25.022502&nbsp;&nbsp;&nbsp;&nbsp; 1075.967586&nbsp;&nbsp;&nbsp;&nbsp;
0.0<br>
&nbsp;Angles&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
36.343634&nbsp;&nbsp;&nbsp;&nbsp; 5924.012342&nbsp;&nbsp;&nbsp;&nbsp;
0.2<br>
&nbsp;Propers&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
13.411341&nbsp;&nbsp;&nbsp;&nbsp; 3071.197089&nbsp;&nbsp;&nbsp;&nbsp;
0.1<br>
&nbsp;Impropers&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
12.171217&nbsp;&nbsp;&nbsp;&nbsp; 2531.613136&nbsp;&nbsp;&nbsp;&nbsp;
0.1<br>
&nbsp;Virial&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
241.774175&nbsp;&nbsp;&nbsp;&nbsp; 4351.935150&nbsp;&nbsp;&nbsp;&nbsp;
0.2<br>
&nbsp;Ext.ens.
Update&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
240.424040&nbsp;&nbsp;&nbsp; 12982.898160&nbsp;&nbsp;&nbsp;&nbsp;
0.5<br>
&nbsp;Stop-CM&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
240.400000&nbsp;&nbsp;&nbsp;&nbsp; 2404.000000&nbsp;&nbsp;&nbsp;&nbsp;
0.1<br>
&nbsp;Calc-Ekin&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
240.448080&nbsp;&nbsp;&nbsp;&nbsp; 6492.098160&nbsp;&nbsp;&nbsp;&nbsp;
0.2<br>
&nbsp;Constraint-V&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
240.424040&nbsp;&nbsp;&nbsp;&nbsp; 1442.544240&nbsp;&nbsp;&nbsp;&nbsp;
0.1<br>
&nbsp;Constraint-Vir&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
215.884746&nbsp;&nbsp;&nbsp;&nbsp; 5181.233904&nbsp;&nbsp;&nbsp;&nbsp;
0.2<br>
&nbsp;Settle&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
71.961582&nbsp;&nbsp;&nbsp; 23243.590986&nbsp;&nbsp;&nbsp;&nbsp; 
0.8<br>
-----------------------------------------------------------------------<br>
&nbsp;Total&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
2757465.194361&nbsp;&nbsp; 100.0<br>
-----------------------------------------------------------------------<br><br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
NODE (s)&nbsp;&nbsp; Real (s)&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; (%)<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Time:&nbsp;&nbsp;&nbsp;
408.000&nbsp;&nbsp;&nbsp; 408.000&nbsp;&nbsp;&nbsp; 100.0<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
6:48<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
(Mnbf/s)&nbsp;&nbsp; (GFlops)&nbsp;&nbsp; (ns/day)&nbsp; (hour/ns)<br>
Performance:&nbsp;&nbsp;&nbsp;&nbsp; 14.810&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
6.758&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 3.176&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
7.556<br>
<br>
Detailed load balancing info in percentage of average<br>
Type&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; NODE:&nbsp; 0&nbsp;&nbsp;
1&nbsp;&nbsp; 2&nbsp;&nbsp; 3&nbsp;&nbsp; 4 Scaling<br>
-------------------------------------------<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
LJ:423&nbsp;&nbsp; 0&nbsp;&nbsp; 3&nbsp; 41&nbsp;
32&nbsp;&nbsp;&nbsp;&nbsp; 23%<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Coul(T):500&nbsp;&nbsp;
0&nbsp;&nbsp; 0&nbsp;&nbsp; 0&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp;
20%<br>
&nbsp;&nbsp; Coul(T) [W3]:&nbsp; 0&nbsp;&nbsp; 0&nbsp; 32 291
176&nbsp;&nbsp;&nbsp;&nbsp; 34%<br>
&nbsp;&nbsp; Coul(T) + LJ:500&nbsp;&nbsp; 0&nbsp;&nbsp; 0&nbsp;&nbsp;
0&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp; 20%<br>
Coul(T) + LJ [W3]:&nbsp; 0&nbsp;&nbsp; 0&nbsp; 24 296
178&nbsp;&nbsp;&nbsp;&nbsp; 33%<br>
Coul(T) + LJ [W3-W3]: 60 116 108 106 107&nbsp;&nbsp;&nbsp;&nbsp; 
86%<br>
Outer nonbonded loop:246&nbsp; 42&nbsp; 45&nbsp; 79&nbsp;
85&nbsp;&nbsp;&nbsp;&nbsp; 40%<br>
1,4 nonbonded interactions:500&nbsp;&nbsp; 0&nbsp;&nbsp; 0&nbsp;&nbsp;
0&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp; 20%<br>
Spread Q Bspline: 98 100 102 100&nbsp; 97&nbsp;&nbsp;&nbsp;&nbsp;
97%<br>
Gather F Bspline: 98 100 102 100&nbsp; 97&nbsp;&nbsp;&nbsp;&nbsp;
97%<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 3D-FFT:100 100 100 100
100&nbsp;&nbsp;&nbsp; 100%<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Solve PME:100 100 100 100
100&nbsp;&nbsp;&nbsp; 100%<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; NS-Pairs:107&nbsp; 96&nbsp; 91 103
100&nbsp;&nbsp;&nbsp;&nbsp; 93%<br>
&nbsp;&nbsp; Reset In Box: 99 100 100 100&nbsp;
99&nbsp;&nbsp;&nbsp;&nbsp; 99%<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Shift-X: 99 100 100 100&nbsp;
99&nbsp;&nbsp;&nbsp;&nbsp; 99%<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; CG-CoM:110&nbsp;
97&nbsp; 97&nbsp; 97&nbsp; 97&nbsp;&nbsp;&nbsp;&nbsp; 90%<br>
&nbsp;&nbsp;&nbsp;&nbsp; Sum Forces:100 100 100&nbsp; 99&nbsp;
99&nbsp;&nbsp;&nbsp;&nbsp; 99%<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
Bonds:499&nbsp;&nbsp; 0&nbsp;&nbsp; 0&nbsp;&nbsp; 0&nbsp;&nbsp;
0&nbsp;&nbsp;&nbsp;&nbsp; 20%<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Angles:500&nbsp;&nbsp;
0&nbsp;&nbsp; 0&nbsp;&nbsp; 0&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp;
20%<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Propers:499&nbsp;&nbsp;
0&nbsp;&nbsp; 0&nbsp;&nbsp; 0&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp;
20%<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Impropers:500&nbsp;&nbsp; 0&nbsp;&nbsp;
0&nbsp;&nbsp; 0&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp; 20%<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Virial: 99 100 100
100&nbsp; 99&nbsp;&nbsp;&nbsp;&nbsp; 99%<br>
Ext.ens. Update: 99 100 100 100&nbsp; 99&nbsp;&nbsp;&nbsp;&nbsp; 
99%<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Stop-CM: 99 100 100 100&nbsp;
99&nbsp;&nbsp;&nbsp;&nbsp; 99%<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Calc-Ekin: 99 100 100 100&nbsp;
99&nbsp;&nbsp;&nbsp;&nbsp; 99%<br>
&nbsp;&nbsp; Constraint-V: 99 100 100 100&nbsp;
99&nbsp;&nbsp;&nbsp;&nbsp; 99%<br>
&nbsp;Constraint-Vir: 54 111 111 111 111&nbsp;&nbsp;&nbsp;&nbsp; 
89%<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Settle: 54 111 111 111
111&nbsp;&nbsp;&nbsp;&nbsp; 89%<br><br>
&nbsp;&nbsp;&nbsp; Total Force: 93 102&nbsp; 97 104
102&nbsp;&nbsp;&nbsp;&nbsp; 95%<br><br>
<br>
&nbsp;&nbsp;&nbsp; Total Shake: 56 110 110 110
110&nbsp;&nbsp;&nbsp;&nbsp; 90%<br><br>
<br>
Total Scaling: 95% of max performance<br><br>
Finished mdrun on node 0 Sun May 27 07:29:57 2007<br>
<b>&nbsp; <br>
</b>_______________________________________________<br>
gmx-users mailing list&nbsp;&nbsp;&nbsp;
<a href="mailto:gmx-users@gromacs.org">gmx-users@gromacs.org</a><br>
<a href="http://www.gromacs.org/mailman/listinfo/gmx-users" eudora="autourl">http://www.gromacs.org/mailman/listinfo/gmx-users</a><br>
Please search the archive at
<a href="http://www.gromacs.org/search">http://www.gromacs.org/search</a>
before posting!<br>
Please don't post (un)subscribe requests to the list. Use the <br>
www interface or send it to <a href="mailto:gmx-users-request@gromacs.org">gmx-users-request@gromacs.org</a>.<br>
Can't post? Read <a href="http://www.gromacs.org/mailing_lists/users.php">http://www.gromacs.org/mailing_lists/users.php</a></blockquote><br>
_______________________________________________<br>
gmx-users mailing list&nbsp;&nbsp;&nbsp; gmx-users@gromacs.org<br>
<a href="http://www.gromacs.org/mailman/listinfo/gmx-users" eudora="autourl">http://www.gromacs.org/mailman/listinfo/gmx-users</a><br>
Please search the archive at <a href="http://www.gromacs.org/search" eudora="autourl">http://www.gromacs.org/search</a> before posting!<br>
Please don't post (un)subscribe requests to the list. Use the <br>
www interface or send it to gmx-users-request@gromacs.org.<br>
Can't post? Read <a href="http://www.gromacs.org/mailing_lists/users.php" eudora="autourl">http://www.gromacs.org/mailing_lists/users.php</a> </blockquote></body>
</html>