<br><br><div class="gmail_quote">On Mon, Feb 6, 2012 at 10:17 AM, Berk Hess <span dir="ltr">&lt;<a href="mailto:hess@kth.se">hess@kth.se</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">





<div bgcolor="#FFFFFF" text="#000000">
Hi,<br>
<br>
I agree test sets are very important.<br>
Having good tests will make development and especially the process of accepting contributions much easier.<br>
<br>
Now that we have the new, by default, energy conserving loops, I realize that energy conservation<br>
is extremely useful for validation. I think that having tests that check energy conservation and particular<br>
energy values of particular (combinations of) functionality will catch a lot of problems.<br>
The problems is that MD is chaotic and with non energy-conserving setups the divergence is extremely fast.<br>
With energy conservation running 20 steps with nstlist=10, checking the conserved energy + a few terms<br>
would be enough for testing most modules, I think.<br>
We still want some more extended tests, but that could be a separate set.<br>
<br>
So setting up a framework for the simple tests should not be too hard.<br></div></blockquote><div>What tests do you have in mind for these simple tests? Would these be all integration tests? </div><div><br></div><div>Roland</div>

<div><br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div bgcolor="#FFFFFF" text="#000000"><div><div class="h5"><br>
<br>
On 02/05/2012 04:56 AM, Roland Schulz wrote:
<blockquote type="cite">
Hi,
<div><br>
</div>
<div>we agreed that we would want to have a test set for 4.6 but so far we haven&#39;t made any progress on it (as far as I know). I want to try to get this work started by posting here a list of questions I have about the new test set. Please add your own questions
 and answer any questions you can (no need to try to answer all questions).</div>
<div><br>
</div>
<div>- Why do the current tests fail? Is it only because of different floating point rounding or are there other problems? What&#39;s the best procedure to find out why a test fails?</div>
<div>- Which tests should be part of the new test set? </div>
<div>- Should the current tests all be part of the new test set?</div>
<div>- How should the new test be implemented? Should the comparison with the reference value be done in C (within mdrun), ctest script, python or perl?</div>
<div>- Should the new test execute mdrun for each test? Or should we somehow (e.g. python wrapper or within mdrun) load the binary only once and run many test per execution?</div>
<div>- What are the requirements for the new test set? E.g. how easy should it be to see whats wrong when a test fails? Should the test support being run under valgrind? Other?</div>
<div>- Do we have any other bugs which have to be solved before the test can be implemented? E.g. is the problem with shared libraries solved? Are there any open redmine issues related to the new test set?</div>
<div>- Should we have a policy that everyone who adds a feature also has to provide tests covering those features?</div>
<div>- Should we have a conference call to discuss the test set? If yes when?</div>
<div>- Should we agree that we won&#39;t release 4.6 without the test set to give it a high priority?</div>
<div>Roland<br clear="all">
<div><br>
</div>
-- <br>
ORNL/UT Center for Molecular Biophysics <a href="http://cmb.ornl.gov" target="_blank">
cmb.ornl.gov</a><br>
<a href="tel:865-241-1537" value="+18652411537" target="_blank">865-241-1537</a>, ORNL PO BOX 2008 MS6309<br>
</div>
<br>
<fieldset></fieldset> <br>
</blockquote>
<br>
</div></div></div>

</blockquote></div><br><br clear="all"><div><br></div>-- <br>ORNL/UT Center for Molecular Biophysics <a href="http://cmb.ornl.gov">cmb.ornl.gov</a><br>865-241-1537, ORNL PO BOX 2008 MS6309<br>