<html>
<head>
<style><!--
.hmmessage P
{
margin:0px;
padding:0px
}
body.hmmessage
{
font-size: 10pt;
font-family:Tahoma
}
--></style>
</head>
<body class='hmmessage'>
Hi,<br><br>In Gromacs 4.5 there is no difference, since it does not use real thread parallelization.<br>Gromacs 4.5 has a built-in threaded MPI library, but openmpi also has an efficient<br>MPI implementation for shared memory machines. But even with proper thread<br>parallelization I expect the same 15 to 20% performance improvement.<br>(I guess the lower 8% number is because of loss when going from 8 to 16 processes<br>for mdrun for that particular system)<br><br>Berk<br><br>&gt; Date: Mon, 9 Aug 2010 11:36:35 -0400<br>&gt; From: chris.neale@utoronto.ca<br>&gt; To: gmx-users@gromacs.org<br>&gt; Subject: [gmx-users] hyperthreading<br>&gt; <br>&gt; I haven't tried mdrun -nt based hyperthreading, but I have tested  <br>&gt; using -np 16 on an 8 core box. I get an 8% to 18% performance increase  <br>&gt; when using -np 16 and optimizing -npme as compared to -np 8 and  <br>&gt; optimizing -npme. This is on a cluster of Intel Xeon E5540 aka  <br>&gt; "Nehalem" with 2 quad cores in a single box and using gromacs 4.0.7. I  <br>&gt; now regularly overload the number of processes.<br>&gt; <br>&gt; selected examples:<br>&gt; System A with 250,000 atoms:<br>&gt; mdrun -np 8  -npme -1    1.15 ns/day<br>&gt; mdrun -np 8  -npme  2    1.02 ns/day<br>&gt; mdrun -np 16 -npme  2    0.99 ns/day<br>&gt; mdrun -np 16 -npme  4    1.36 ns/day &lt;-- 118 % performance vs 1.15 ns/day<br>&gt; mdrun -np 15 -npme  3    1.32 ns/day<br>&gt; <br>&gt; System B with 35,000 atoms (4 fs timestep):<br>&gt; mdrun -np 8  -npme -1    22.66 ns/day<br>&gt; mdrun -np 8  -npme  2    23.06 ns/day<br>&gt; mdrun -np 16 -npme -1    22.69 ns/day<br>&gt; mdrun -np 16 -npme  4    24.90 ns/day &lt;-- 108 % performance vs 23.06 ns/day<br>&gt; mdrun -np 56 -npme 16    14.15 ns/day<br>&gt; <br>&gt; Cutoffs and timesteps differ between these runs, but both use PME and  <br>&gt; explicit water.<br>&gt; <br>&gt; I'd be interested in hearing about any comparisons between -np based  <br>&gt; process overloading and -nt based hyperthreading.<br>&gt; <br>&gt; Hope it helps,<br>&gt; Chris.<br>&gt; <br>&gt; -- original message --<br>&gt; <br>&gt; Hi,<br>&gt; <br>&gt; These are nehalem Xeons I presume?<br>&gt; Then you get 15 to 20% more performance in Gromacs running 2 vs 1  <br>&gt; thread or process per physical core.<br>&gt; <br>&gt; Berk<br>&gt; <br>&gt; &gt; Date: Fri, 6 Aug 2010 09:24:11 -0500<br>&gt; &gt; From: dmobley at gmail.com<br>&gt; &gt; To: gmx-users at gromacs.org<br>&gt; &gt; Subject: [gmx-users] hyperthreading<br>&gt; &gt;<br>&gt; &gt; Dear All,<br>&gt; &gt;<br>&gt; &gt; I'm putting together a new Dell Xeon cluster running ROCKS 5.3 which<br>&gt; &gt; uses CENTOS (6 I believe). This is currently ~20 dual quad-cores with<br>&gt; &gt; roughly 16 GB of RAM each.<br>&gt; &gt;<br>&gt; &gt; In any case, I wanted to inquire about hyperthreading. Does anyone<br>&gt; &gt; have experience on similar machines with vs. without hyperthreading?<br>&gt; &gt; The ROCKS users list suggests that hyperthreading ought always be off<br>&gt; &gt; for HPC applications, which sounds overly simplistic to me, though I<br>&gt; &gt; more or less follow the logic of this.<br>&gt; &gt;<br>&gt; &gt; So, has anyone done any benchmarking yet in a similar setting, and<br>&gt; &gt; what thoughts do you have? I obviously can do some benchmarking myself<br>&gt; &gt; as well but I thought I'd check in with the list first.<br>&gt; &gt;<br>&gt; &gt; Thanks so much,<br>&gt; &gt; David<br>&gt; &gt;<br>&gt; &gt;<br>&gt; &gt; -- <br>&gt; &gt; David Mobley<br>&gt; &gt; dmobley at gmail.com<br>&gt; &gt; 504-383-3662<br>&gt; <br>&gt; <br>&gt; -- <br>&gt; gmx-users mailing list    gmx-users@gromacs.org<br>&gt; http://lists.gromacs.org/mailman/listinfo/gmx-users<br>&gt; Please search the archive at http://www.gromacs.org/search before posting!<br>&gt; Please don't post (un)subscribe requests to the list. Use the <br>&gt; www interface or send it to gmx-users-request@gromacs.org.<br>&gt; Can't post? Read http://www.gromacs.org/mailing_lists/users.php<br>                                               </body>
</html>