I just setup an infiniband networking system on my Dell dual quad core cluster and wanted to share the benchmark results.<div><br></div><div>I am using a Cisco SFS 7000P switch and Mellanox MHEA28-XTC HCA infiniband cards. Setup was trivial thanks to a very competent sys admin!!!! Used open the openMPI that came with the Mellanox software and it worked out of the box.</div>

<div><br></div><div>All of the nodes in the cluster are dual quad core. 128 cores total.</div><div><br></div><div>Benchmark:</div><div><br></div><div>425362 Atoms Protein/Water</div><div>4 fs time step</div><div>PME, etc..</div>

<div><br></div><div>8 Cores1ns/day</div><div>16 Cores 2ns/day</div><div>32 Cores 4 ns/day</div><div>64 Cores 8 ns/day</div><div>128 Cores 14 ns/day.</div><div><br></div><div>I get 100% scaling through 64 and 87% @ 128. Not bad!!!!</div>

<div><br></div><div>Cheers,</div><div><br></div><div>Ilya</div><div><br></div><div><br clear="all"><br>-- <br>Ilya Chorny Ph.D.<br><br>
</div>