<div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote">On Thu, Oct 8, 2015 at 9:08 AM, David van der Spoel <span dir="ltr">&lt;<a href="mailto:spoel@xray.bmc.uu.se" target="_blank">spoel@xray.bmc.uu.se</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class="">On 08/10/15 13:36, Berk Hess wrote:<br>
&gt; Interesting read. The essential message is:<br>
&gt; &quot;Thus, we believe that a discussion on threads versus processes boils<br>
&gt; down to “shared everything by default” versus “shared nothing by default”.<br>
&gt; We came to the same conclusion in a discussion some time ago. So the<br>
&gt; choice doesn&#39;t affect performance, but it strongly affects the code.<br>
&gt; For Gromacs I think it&#39;s still convenient to have processes+threads,<br>
&gt; since we have many data structures with many small arrays that change at<br>
&gt; domain decomposition time that are needed by all threads in a domain.<br>
&gt; Sharing all these through MPI3 is tedious.<br>
<br>
</span>Also I think it can be advantageous to have fewer DD cells in case of<br>
very inhomogoneous systems (we are working with clusters in the gas phase).<br></blockquote><div><br></div><div>Only if MPI is only used to implement DD. We certainly need multiple level of parallelism. But one could use MPI to implement the task level parallelism we would like (mainly running the different forces in parallel rather than sequential).</div><div><br></div><div>Roland</div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<div class="HOEnZb"><div class="h5">&gt;<br>
&gt; Cheers,<br>
&gt;<br>
&gt; Berk<br>
&gt;<br>
&gt; On 10/08/2015 01:04 PM, Szilárd Páll wrote:<br>
&gt;&gt;<br>
&gt;&gt; &quot;We believe that portions of the HPC community have adopted the point<br>
&gt;&gt; of view that somehow threads are “necessary” in order to utilize such<br>
&gt;&gt; [manycore/SMP] systems, (1) without fully understanding the<br>
&gt;&gt; alternatives, including MPI 3 functionality, (2) underestimating the<br>
&gt;&gt; difficulty of utilizing threads efficiently, and (3) without<br>
&gt;&gt; appreciating the similarities of threads and processes. This short<br>
&gt;&gt; paper, due to space constraints, focuses exclusively on issue (3)<br>
&gt;&gt; since we feel it has gotten virtually no attention.&quot;<br>
&gt;&gt;<br>
&gt;&gt; <a href="http://www.orau.gov/hpcor2015/whitepapers/Exascale_Computing_without_Threads-Barry_Smith.pdf" rel="noreferrer" target="_blank">http://www.orau.gov/hpcor2015/whitepapers/Exascale_Computing_without_Threads-Barry_Smith.pdf</a><br>
&gt;&gt;<br>
&gt;&gt; --<br>
&gt;&gt; Szilárd<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
<br>
<br>
</div></div><span class="HOEnZb"><font color="#888888">--<br>
David van der Spoel, Ph.D., Professor of Biology<br>
Dept. of Cell &amp; Molec. Biol., Uppsala University.<br>
Box 596, 75124 Uppsala, Sweden. Phone:  <a href="tel:%2B46184714205" value="+46184714205">+46184714205</a>.<br>
<a href="mailto:spoel@xray.bmc.uu.se">spoel@xray.bmc.uu.se</a>    <a href="http://folding.bmc.uu.se" rel="noreferrer" target="_blank">http://folding.bmc.uu.se</a><br>
--<br>
Gromacs Developers mailing list<br>
<br>
* Please search the archive at <a href="http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List" rel="noreferrer" target="_blank">http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List</a> before posting!<br>
<br>
* Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" rel="noreferrer" target="_blank">http://www.gromacs.org/Support/Mailing_Lists</a><br>
<br>
* For (un)subscribe requests visit<br>
<a href="https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers" rel="noreferrer" target="_blank">https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers</a> or send a mail to <a href="mailto:gmx-developers-request@gromacs.org">gmx-developers-request@gromacs.org</a>.<br>
</font></span></blockquote></div><br><br clear="all"><div><br></div>-- <br><div class="gmail_signature">ORNL/UT Center for Molecular Biophysics <a href="http://cmb.ornl.gov" target="_blank">cmb.ornl.gov</a><br>865-241-1537, ORNL PO BOX 2008 MS6309</div>
</div></div>