<html><head></head><body><div style="font-family: Verdana;font-size: 12.0px;"><div>
<div>Dear Dr. Pali,</div>

<div>&nbsp;</div>

<div>Thank you,</div>

<div>&nbsp;</div>

<div>Stephan Watkins</div>

<div>&nbsp;
<div name="quote" style="margin:10px 5px 5px 10px; padding: 10px 0 10px 10px; border-left:2px solid #C3D9E5; word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space;">
<div style="margin:0 0 10px 0;"><b>Gesendet:</b>&nbsp;Dienstag, 28. Mai 2013 um 19:50 Uhr<br/>
<b>Von:</b>&nbsp;&quot;Szil&aacute;rd P&aacute;ll&quot; &lt;szilard.pall@cbr.su.se&gt;<br/>
<b>An:</b>&nbsp;&quot;Discussion list for GROMACS users&quot; &lt;gmx-users@gromacs.org&gt;<br/>
<b>Betreff:</b>&nbsp;Re: Re: [gmx-users] GPU-based workstation</div>

<div name="quoted-content">Dear all,<br/>
<br/>
As far as I understand, the OP is interested in hardware for *running*<br/>
GROMACS 4.6 rather than developing code. or running LINPACK.<br/>
<br/>
<br/>
To get best performance it is important to use a machine with hardware<br/>
balanced for GROMACS&#39; workloads. Too little GPU resources will result<br/>
in CPU idling; too much GPU resources will lead to the runs being CPU<br/>
or multi-GPU scaling bound and above a certain level GROMACS won&#39;t be<br/>
able to make use of additional GPUs.<br/>
<br/>
Of course, the balance will depend both on hardware and simulation<br/>
settings (mostly the LJ cut-off used).<br/>
<br/>
An additional factor to consider is typical system size. To reach near<br/>
peak pair-force throughput on GPUs you typically need &gt;20k-40k<br/>
particles/GPU (depends on the architecture) and throughput drops below<br/>
these values. Hence, in most cases it is preferred to use fewer and<br/>
faster GPUs rather than more.<br/>
<br/>
Without knowing the budgdet and indented use of the machine it is hard<br/>
to make suggestions, but I would say for a budget desktop box a<br/>
quad-core Intel Ivy Bridge or the top-end AMD Piledriver CPU with a<br/>
fast Kepler GTX card (e.g. GTX 680 or GTX 770/780) should work well.<br/>
If you&#39;re considering dual-socket workstations, I suggest you go with<br/>
the higher core-count and higher frequency Intel CPUs (6+ cores &gt;2.2<br/>
GHz), otherwise you may not see as much benefit as you would expect<br/>
based on the insane price tag (especially if you compare to an i7<br/>
3939K or its IVB successor).<br/>
<br/>
Cheers,<br/>
--<br/>
Szil&aacute;rd<br/>
<br/>
<br/>
On Sat, May 25, 2013 at 1:02 PM, lloyd riggs &lt;lloyd.riggs@gmx.ch&gt; wrote:<br/>
&gt; More RAM the better, and the best I have seen is 4 GPU work station. I can<br/>
&gt; use/have used 4. The GPU takes 2 slots though, so a 7-8 PCIe board is<br/>
&gt; really 3-4 GPU, except the tyan mentioned (there designed as blades so an 8<br/>
&gt; or 10 slot board really holds 8 or 10 GPU&#39;s). There&#39;s cooling problems<br/>
&gt; though with GPU&#39;s, as on a board there packed, so extra cooling things may<br/>
&gt; help not blow a GPU, but I would look for good ones (ask around), as its a<br/>
&gt; video game market and they go for looks even though its in casing? The<br/>
&gt; external RAM (not onboard GPU RAM) helps if you do a larger sim, but I dont<br/>
&gt; know performance wise, the onboard GPU, the more RAM the marrier...so yes,<br/>
&gt; normal work stations you can get 4 GPU&#39;s for a 300 US&#36; board, but then the<br/>
&gt; price goes way up (3-4000 US&#36; for an 8-10 gpu board). RAM ordered abroad is<br/>
&gt; also cheep, 8 or 16 MB Vs. Shop...I have used 4 GPU&#39;s but only on tests<br/>
&gt; software, not Gromacs, so would be nice to see performance...for a small 100<br/>
&gt; atom molecule and 500 solvent, using just the CPU I get it to run 5-10<br/>
&gt; minutes real for 1 ns sim, but tried simple large 800 amino, 25,000 solvent<br/>
&gt; eq (NVT or NPT) runs and they clock at around 1 hour real for say 50 ps<br/>
&gt; eq&#39;s....<br/>
&gt;<br/>
&gt; Stephan<br/>
&gt;<br/>
&gt; Gesendet: Samstag, 25. Mai 2013 um 07:54 Uhr<br/>
&gt; Von: &quot;James Starlight&quot; &lt;jmsstarlight@gmail.com&gt;<br/>
&gt; An: &quot;Discussion list for GROMACS users&quot; &lt;gmx-users@gromacs.org&gt;<br/>
&gt; Betreff: Re: [gmx-users] GPU-based workstation<br/>
&gt; Dear Dr. Watkins!<br/>
&gt;<br/>
&gt; Thank you for the suggestions!<br/>
&gt;<br/>
&gt; In the local shops I&#39;ve found only Core i7 with 6 cores (like Core<br/>
&gt; i7-39xx) and 4 cores. Should I obtain much better performance with 6 cores<br/>
&gt; than with 4 cores in case of i7 cpu (assuming that I run simulation in<br/>
&gt; cpu+gpu mode )?<br/>
&gt;<br/>
&gt; Also you&#39;ve mentioned about 4 PCeI MD. Does it means that modern<br/>
&gt; work-station could have 4 GPU&#39;s in one home-like desktop ? According to my<br/>
&gt; current task I suppose that 2 GPU&#39;s would be suitable for my simulations<br/>
&gt; (assuming that I use typical ASUS MB and 650 Watt power unit). Have<br/>
&gt; someone tried to use several GPU&#39;s on one workstation ? What attributes of<br/>
&gt; MB should be taken into account for best performance on such multi-gpu<br/>
&gt; station ?<br/>
&gt;<br/>
&gt; James<br/>
&gt;<br/>
&gt; 2013/5/25 lloyd riggs &lt;lloyd.riggs@gmx.ch&gt;<br/>
&gt;<br/>
&gt;&gt; There&#39;s also these, but 1 chip runs 6K US, they can get performance up to<br/>
&gt;&gt; 2.3 teraflops per chip though double percission...but have no clue about<br/>
&gt;&gt; integration with GPU&#39;s...Intell also sells their chips on PCIe cards...but<br/>
&gt;&gt; get only about 350 Gflops, and run 1K US&#36;.<br/>
&gt;&gt;<br/>
&gt;&gt; <a href="http://en.wikipedia.org/wiki/Field-programmable_gate_array" target="_blank">http://en.wikipedia.org/wiki/Field-programmable_gate_array</a> and vendor<br/>
&gt;&gt; <a href="http://www.xilinx.com/" target="_blank">http://www.xilinx.com/</a><br/>
&gt;&gt;<br/>
&gt;&gt; They can design them though to fit a PCIe slot and run about the same, but<br/>
&gt;&gt; still need the board, ram etc...<br/>
&gt;&gt;<br/>
&gt;&gt; Mostly just to dream about, they say you can order them with radiation<br/>
&gt;&gt; shielding as well...so...<br/>
&gt;&gt;<br/>
&gt;&gt; Stephan Watkins<br/>
&gt;&gt;<br/>
&gt;&gt; *Gesendet:* Freitag, 24. Mai 2013 um 13:17 Uhr<br/>
&gt;&gt; *Von:* &quot;James Starlight&quot; &lt;jmsstarlight@gmail.com&gt;<br/>
&gt;&gt; *An:* &quot;Discussion list for GROMACS users&quot; &lt;gmx-users@gromacs.org&gt;<br/>
&gt;&gt; *Betreff:* [gmx-users] GPU-based workstation<br/>
&gt;&gt; Dear Gromacs Users!<br/>
&gt;&gt;<br/>
&gt;&gt;<br/>
&gt;&gt; I&#39;d like to build new workstation for performing simulation on GPU with<br/>
&gt;&gt; Gromacs 4.6 native cuda support.<br/>
&gt;&gt; Recently I&#39;ve used such setup with Core i5 cpu and nvidia 670 GTX video<br/>
&gt;&gt; and obtain good performance ( ~ 20 ns&#92;day for typical 60.000 atom system<br/>
&gt;&gt; with SD integrator)<br/>
&gt;&gt;<br/>
&gt;&gt;<br/>
&gt;&gt; Now I&#39;d like to build multi-gpu wokstation.<br/>
&gt;&gt;<br/>
&gt;&gt; My question - How much GPU would give me best performance on the typical<br/>
&gt;&gt; home-like workstation. What algorithm of Ncidia GPU integration should I<br/>
&gt;&gt; use (e.g SLI etc) ?<br/>
&gt;&gt;<br/>
&gt;&gt;<br/>
&gt;&gt; Thanks for help,<br/>
&gt;&gt;<br/>
&gt;&gt;<br/>
&gt;&gt; James<br/>
&gt;&gt; --<br/>
&gt;&gt; gmx-users mailing list gmx-users@gromacs.org<br/>
&gt;&gt; <a href="http://lists.gromacs.org/mailman/listinfo/gmx-users" target="_blank">http://lists.gromacs.org/mailman/listinfo/gmx-users</a><br/>
&gt;&gt; * Please search the archive at<br/>
&gt;&gt; <a href="http://www.gromacs.org/Support/Mailing_Lists/Search" target="_blank">http://www.gromacs.org/Support/Mailing_Lists/Search</a> before posting!<br/>
&gt;&gt; * Please don&#39;t post (un)subscribe requests to the list. Use the<br/>
&gt;&gt; www interface or send it to gmx-users-request@gromacs.org.<br/>
&gt;&gt; * Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" target="_blank">http://www.gromacs.org/Support/Mailing_Lists</a><br/>
&gt;&gt;<br/>
&gt;&gt; --<br/>
&gt;&gt; gmx-users mailing list gmx-users@gromacs.org<br/>
&gt;&gt; <a href="http://lists.gromacs.org/mailman/listinfo/gmx-users" target="_blank">http://lists.gromacs.org/mailman/listinfo/gmx-users</a><br/>
&gt;&gt; * Please search the archive at<br/>
&gt;&gt; <a href="http://www.gromacs.org/Support/Mailing_Lists/Search" target="_blank">http://www.gromacs.org/Support/Mailing_Lists/Search</a> before posting!<br/>
&gt;&gt; * Please don&#39;t post (un)subscribe requests to the list. Use the<br/>
&gt;&gt; www interface or send it to gmx-users-request@gromacs.org.<br/>
&gt;&gt; * Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" target="_blank">http://www.gromacs.org/Support/Mailing_Lists</a><br/>
&gt;&gt;<br/>
&gt; --<br/>
&gt; gmx-users mailing list gmx-users@gromacs.org<br/>
&gt; <a href="http://lists.gromacs.org/mailman/listinfo/gmx-users" target="_blank">http://lists.gromacs.org/mailman/listinfo/gmx-users</a><br/>
&gt; * Please search the archive at<br/>
&gt; <a href="http://www.gromacs.org/Support/Mailing_Lists/Search" target="_blank">http://www.gromacs.org/Support/Mailing_Lists/Search</a> before posting!<br/>
&gt; * Please don&#39;t post (un)subscribe requests to the list. Use the<br/>
&gt; www interface or send it to gmx-users-request@gromacs.org.<br/>
&gt; * Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" target="_blank">http://www.gromacs.org/Support/Mailing_Lists</a><br/>
&gt;<br/>
&gt; --<br/>
&gt; gmx-users mailing list gmx-users@gromacs.org<br/>
&gt; <a href="http://lists.gromacs.org/mailman/listinfo/gmx-users" target="_blank">http://lists.gromacs.org/mailman/listinfo/gmx-users</a><br/>
&gt; * Please search the archive at<br/>
&gt; <a href="http://www.gromacs.org/Support/Mailing_Lists/Search" target="_blank">http://www.gromacs.org/Support/Mailing_Lists/Search</a> before posting!<br/>
&gt; * Please don&#39;t post (un)subscribe requests to the list. Use the<br/>
&gt; www interface or send it to gmx-users-request@gromacs.org.<br/>
&gt; * Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" target="_blank">http://www.gromacs.org/Support/Mailing_Lists</a><br/>
--<br/>
gmx-users mailing list gmx-users@gromacs.org<br/>
<a href="http://lists.gromacs.org/mailman/listinfo/gmx-users" target="_blank">http://lists.gromacs.org/mailman/listinfo/gmx-users</a><br/>
* Please search the archive at <a href="http://www.gromacs.org/Support/Mailing_Lists/Search" target="_blank">http://www.gromacs.org/Support/Mailing_Lists/Search</a> before posting!<br/>
* Please don&#39;t post (un)subscribe requests to the list. Use the<br/>
www interface or send it to gmx-users-request@gromacs.org.<br/>
* Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" target="_blank">http://www.gromacs.org/Support/Mailing_Lists</a></div>
</div>
</div>
</div></div></body></html>