<div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote">On Thu, Oct 16, 2014 at 7:27 PM, Szilárd Páll <span dir="ltr">&lt;<a href="mailto:pall.szilard@gmail.com" target="_blank">pall.szilard@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">Hi,<br>
<br>
There have been attempts at putting together a benchmark suite, the<br>
first one quite a few years ago resulting in the gmxbench.sh script<br>
and few input systems; more additions have been made a couple of<br>
months ago, everything is here: <a href="http://git.gromacs.org/benchmarks.git" target="_blank">git.gromacs.org/benchmarks.git</a></blockquote><div><br></div><div>I get </div><div>fatal: remote error: access denied or repository not exported: /benchmarks.git<br></div><div><br></div><div>Is this not yet readable to all developers? Any reason this isn&#39;t in gerrit?</div><div><br></div><div>Roland</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex"><br>
<br>
On Tue, Sep 30, 2014 at 6:22 PM, Mark Abraham &lt;<a href="mailto:mark.j.abraham@gmail.com">mark.j.abraham@gmail.com</a>&gt; wrote:<br>
&gt; Hi,<br>
&gt;<br>
&gt; Cherry-picking Michael&#39;s email into its own thread:<br>
&gt;<br>
&gt;&gt; Is there a plan (long term) to do (essentially) automated performance<br>
&gt;&gt; tests so that we<br>
&gt;&gt; can perform consistent(ish) checks for new changes in code, then post the<br>
&gt;&gt; results in an<br>
&gt;&gt; easy(ish) way to interpret for others?<br>
&gt;<br>
&gt; There&#39;s no organized plan.  I&#39;ve lately been trying to organize a dedicated<br>
&gt; machine here so we can start to do some of this - had we had it and the<br>
&gt; right kinds of tests then various bugs would not have gone unnoticed.<br>
<br>
While a machine is useful, I think the what and how to benchmarks are<br>
to clarify first; given the difficulties in concretizing the benchmark<br>
setup in the past, these aspects require attention earlier rather than<br>
later, I think. Some of the questions that previous attempts brought<br>
up:<br>
- facilitate comparing results (to other codes or older version of<br>
GROMACS) while avoiding the pitfall of using of &quot;smallest&quot; common<br>
denominator features/algorithms (like JACC or the STFC benchmarks);<br>
- test algorithms or functionality: one may be interested in the<br>
algorithmic performance while others want to know how fast can one<br>
compute X.<br>
<br>
&gt; In<br>
&gt; principle, people could run that test suite on their own hardware, of<br>
&gt; course.<br>
<br>
I think the best would be if many people ran on many different hardware.<br>
<br>
However, I think reproducibility is quite tricky. It can only be<br>
ensured if we get a couple of identical machines, set them up with<br>
identical software and avoid most upgrades (e.g. kernel, libc[++],<br>
etc.) that can affect performance, keeping a machine as backup to<br>
avoid having to rerun all reference runs when the hardware breaks.<br>
Even this will only ensure observing performance on one particular<br>
piece of hardware with the set of algorithms, parallelization,<br>
optimizations actually used.<br>
<br>
&gt; One option I&#39;ve been toying with lately is dumping the mdrun performance<br>
&gt; data matrix to XML (or something) so that some existing plotting machinery<br>
&gt; can show the trend over time (and also observe a per-commit delta large<br>
&gt; enough to vote -1 on Jenkins).<br>
<br>
Isn&#39;t per commit is an overkill an ill-scaling setup? I think it&#39;s<br>
better to do less frequent (e.g. weekly) and per-reqeust performance<br>
regression tests. Proper testing anyway requires running dozens of<br>
combinations of input+launch configurations on several platforms. It&#39;s<br>
not a fun task, I know because I&#39;ve been doing quite extensive<br>
performance testing semi-manually.<br>
<br>
--<br>
Szilárd<br>
<br>
&gt; I also mean to have a poke around with<br>
&gt; <a href="http://www.phoromatic.com/" target="_blank">http://www.phoromatic.com/</a> to see if maybe it already has infrastructure we<br>
&gt; could use.<br>
&gt;<br>
&gt; Mark<br>
<span class=""><font color="#888888">&gt;<br>
&gt; --<br>
&gt; Gromacs Developers mailing list<br>
&gt;<br>
&gt; * Please search the archive at<br>
&gt; <a href="http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List" target="_blank">http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List</a> before<br>
&gt; posting!<br>
&gt;<br>
&gt; * Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" target="_blank">http://www.gromacs.org/Support/Mailing_Lists</a><br>
&gt;<br>
&gt; * For (un)subscribe requests visit<br>
&gt; <a href="https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers" target="_blank">https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers</a> or<br>
&gt; send a mail to <a href="mailto:gmx-developers-request@gromacs.org">gmx-developers-request@gromacs.org</a>.<br>
--<br>
Gromacs Developers mailing list<br>
<br>
* Please search the archive at <a href="http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List" target="_blank">http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List</a> before posting!<br>
<br>
* Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" target="_blank">http://www.gromacs.org/Support/Mailing_Lists</a><br>
<br>
* For (un)subscribe requests visit<br>
<a href="https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers" target="_blank">https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers</a> or send a mail to <a href="mailto:gmx-developers-request@gromacs.org">gmx-developers-request@gromacs.org</a>.</font></span></blockquote></div><br><br clear="all"><div><br></div>-- <br>ORNL/UT Center for Molecular Biophysics <a href="http://cmb.ornl.gov">cmb.ornl.gov</a><br>865-241-1537, ORNL PO BOX 2008 MS6309
</div></div>