<html><head></head><body><div style="font-family: Verdana;font-size: 12.0px;"><div>&nbsp;
<div>
<div>Is there any progress in openCL versions of Gromacs, as it is listed on the developer site?&nbsp; Just askin.&nbsp; One thing I ran across is one can get integrated GPU arrays on a board if you find say Russian board designs from China for about the same price with 10x the computational speed, but the boards would be largly OpenCL dependent.</div>

<div>&nbsp;</div>

<div>Stephan Watkins</div>

<div name="quote" style="margin:10px 5px 5px 10px; padding: 10px 0 10px 10px; border-left:2px solid #C3D9E5; word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space;">
<div style="margin:0 0 10px 0;"><b>Gesendet:</b>&nbsp;Donnerstag, 16. Oktober 2014 um 20:21 Uhr<br/>
<b>Von:</b>&nbsp;&quot;Szil&aacute;rd P&aacute;ll&quot; &lt;pall.szilard@gmail.com&gt;<br/>
<b>An:</b>&nbsp;&quot;Discussion list for GROMACS users&quot; &lt;gmx-users@gromacs.org&gt;<br/>
<b>Betreff:</b>&nbsp;Re: [gmx-users] MD workstation</div>

<div name="quoted-content">On Thu, Oct 16, 2014 at 3:35 PM, Hadh&aacute;zi &Aacute;d&aacute;m &lt;hadadam@gmail.com&gt; wrote:<br/>
&gt; May I ask why your config is better than e.g.<br/>
&gt;<br/>
&gt; 2x Intel Xeon E5-2620 CPUs (2x&#36;405)<br/>
&gt; 4x GTX 970(4x &#36;330)<br/>
&gt; 1x Z9PE-D8 WS (&#36;449)<br/>
&gt; 64 GB DDR3 (&#36;600)<br/>
&gt; PSU 1600W, (&#36;250)<br/>
&gt; standard 2TB 5400rpm drive, (&#36;85)<br/>
&gt; total: (~&#36;3500)<br/>
<br/>
Mirco&#39;s suggested setup will give much higher *aggregate* simulation<br/>
throughput. GROMACS uses both CPUs and GPUs and requires a balanced<br/>
resource mix to run efficiently (less so if you don&#39;t use PME). The<br/>
E5-2620 is rather slow and it will be a good match for a single GTX<br/>
970, perhaps even a 980, but it will be the limiting factor with two<br/>
GPUs per socket.<br/>
<br/>
&gt; As for your setup...can I use that 4 nodes in parallel for 1 long<br/>
&gt; simulation or 1 FEP job?<br/>
<br/>
Not without a fast network.<br/>
<br/>
&gt; What are the weak points of my workstation?<br/>
<br/>
The CPU. Desktop IVB-E or HSW-E (e.g. i7 49XX, 59XX) will give much<br/>
better performance per buck.<br/>
<br/>
Also note:<br/>
* your smaller 25k MD setup will not scale across multiple GPUs;<br/>
* in FEP runs you, by sharing a GPU between multiple runs you can<br/>
increase the aggregate throughput by quite a lot!<br/>
<br/>
Cheers,<br/>
--<br/>
Szil&aacute;rd<br/>
<br/>
&gt; Best,<br/>
&gt; Adam<br/>
&gt;<br/>
&gt;<br/>
&gt; 2014-10-16 23:00 GMT+10:00 Mirco Wahab &lt;mirco.wahab@chemie.tu-freiberg.de&gt;:<br/>
&gt;<br/>
&gt;&gt; On 16.10.2014 14:38, Hadh&aacute;zi &Aacute;d&aacute;m wrote:<br/>
&gt;&gt;<br/>
&gt;&gt;&gt; Dear GMX Stuff and Users,<br/>
&gt;&gt;&gt;&gt;&gt; I am planning to buy a new MD workstation with 4 GPU (GTX 780 or 970)<br/>
&gt;&gt;&gt;&gt;&gt; or 3<br/>
&gt;&gt;&gt;&gt;&gt; GPU (GTX 980) for 4000&#36;.<br/>
&gt;&gt;&gt;&gt;&gt; Could you recommend me a setup for this machine?<br/>
&gt;&gt;&gt;&gt;&gt; 1 or 2 CPU is necessary? 32/64 GB memory? Cooling? Power?<br/>
&gt;&gt;&gt;&gt;&gt;<br/>
&gt;&gt;&gt;&gt;<br/>
&gt;&gt;&gt;&gt; - What system (size, type, natoms) do you plan to simulate?<br/>
&gt;&gt;&gt;&gt;<br/>
&gt;&gt;&gt;&gt; - Do you have to run *only one single simulation* over long time<br/>
&gt;&gt;&gt;&gt; or *some similar simulations* with similar parameters?<br/>
&gt;&gt;&gt;&gt;<br/>
&gt;&gt;&gt;<br/>
&gt;&gt;&gt; The systems are kind of mix:<br/>
&gt;&gt;&gt; MD:<br/>
&gt;&gt;&gt; smallest system: 25k atoms, spc/tip3p, 2fs/4fs, NPT, simulation time:<br/>
&gt;&gt;&gt; 500-1000ns<br/>
&gt;&gt;&gt; biggest system: 150k atoms, spc/tip3p, 2fs/4fs, NPT, simulation time:<br/>
&gt;&gt;&gt; 100-1000ns<br/>
&gt;&gt;&gt; FEP (free energy perturbation): ligand functional group mutation<br/>
&gt;&gt;&gt; 25k-150k atoms, in complex and in water simulations, production<br/>
&gt;&gt;&gt; simulation:<br/>
&gt;&gt;&gt; 5ns for each lambda window (number of windows: 12)<br/>
&gt;&gt;&gt;<br/>
&gt;&gt;<br/>
&gt;&gt; In this situation, I&#39;d probably use 4 machines for &#36;1000 each,<br/>
&gt;&gt; putting in each:<br/>
&gt;&gt; - consumer i7/4790(K), &#36;300<br/>
&gt;&gt; - any 8GB DDR3, &#36;75-&#36;80<br/>
&gt;&gt; - standard Z97 board, &#36;100<br/>
&gt;&gt; - standard PSU 450W, &#36;40<br/>
&gt;&gt; - standard 2TB 5400rpm drive, &#36;85<br/>
&gt;&gt;<br/>
&gt;&gt; the rest of the money (4 x &#36;395), I&#39;d use for 4 graphics<br/>
&gt;&gt; cards, probably 3 GTX-970 (&#36;330) and one GTX-980 (&#36;550) -<br/>
&gt;&gt; depending on availability, the actual prices, and<br/>
&gt;&gt; your detailed budget.<br/>
&gt;&gt;<br/>
&gt;&gt; YMMV,<br/>
&gt;&gt;<br/>
&gt;&gt;<br/>
&gt;&gt; Regards<br/>
&gt;&gt;<br/>
&gt;&gt; M.<br/>
&gt;&gt;<br/>
&gt;&gt; --<br/>
&gt;&gt; Gromacs Users mailing list<br/>
&gt;&gt;<br/>
&gt;&gt; * Please search the archive at <a href="http://www.gromacs.org/" target="_blank">http://www.gromacs.org/</a><br/>
&gt;&gt; Support/Mailing_Lists/GMX-Users_List before posting!<br/>
&gt;&gt;<br/>
&gt;&gt; * Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" target="_blank">http://www.gromacs.org/Support/Mailing_Lists</a><br/>
&gt;&gt;<br/>
&gt;&gt; * For (un)subscribe requests visit<br/>
&gt;&gt; <a href="https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-users" target="_blank">https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-users</a> or<br/>
&gt;&gt; send a mail to gmx-users-request@gromacs.org.<br/>
&gt;&gt;<br/>
&gt; --<br/>
&gt; Gromacs Users mailing list<br/>
&gt;<br/>
&gt; * Please search the archive at <a href="http://www.gromacs.org/Support/Mailing_Lists/GMX-Users_List" target="_blank">http://www.gromacs.org/Support/Mailing_Lists/GMX-Users_List</a> before posting!<br/>
&gt;<br/>
&gt; * Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" target="_blank">http://www.gromacs.org/Support/Mailing_Lists</a><br/>
&gt;<br/>
&gt; * For (un)subscribe requests visit<br/>
&gt; <a href="https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-users" target="_blank">https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-users</a> or send a mail to gmx-users-request@gromacs.org.<br/>
--<br/>
Gromacs Users mailing list<br/>
<br/>
* Please search the archive at <a href="http://www.gromacs.org/Support/Mailing_Lists/GMX-Users_List" target="_blank">http://www.gromacs.org/Support/Mailing_Lists/GMX-Users_List</a> before posting!<br/>
<br/>
* Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" target="_blank">http://www.gromacs.org/Support/Mailing_Lists</a><br/>
<br/>
* For (un)subscribe requests visit<br/>
<a href="https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-users" target="_blank">https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-users</a> or send a mail to gmx-users-request@gromacs.org.</div>
</div>
</div>
</div></div></body></html>