<div dir="ltr">The command-line is:<br>&gt; srun -n 512 -N 32 --cpu_bind=cores -c 16 gmx_mpi mdrun -ntomp 4 -npme 256 -nstlist 35 -nsteps 2000 -resetstep 1000 -pin off -noconfout -v -notunepme<br><br>Log file information:<br>=====================================================================<br>Initializing Domain Decomposition on 512 ranks<br>Dynamic load balancing: auto<br>Initial maximum inter charge-group distances:<br>    two-body bonded interactions: 0.393 nm, LJ-14, atoms 198 204<br>  multi-body bonded interactions: 0.393 nm, Proper Dih., atoms 198 204<br>Minimum cell size due to bonded interactions: 0.433 nm<br>Maximum distance for 5 constraints, at 120 deg. angles, all-trans: 0.740 nm<br>Estimated maximum distance required for P-LINCS: 0.740 nm<br>This distance will limit the DD cell size, you can override this with -rcon<br>Using 256 separate PME ranks, per user request<br>Scaling the initial minimum size with 1/0.8 (option -dds) = 1.25<br>Optimizing the DD grid for 256 cells with a minimum initial size of 0.926 nm<br>The maximum allowed number of cells is: X 16 Y 16 Z 16<br>Domain decomposition grid 16 x 4 x 4, separate PME ranks 256<br>PME domain decomposition: 16 x 16 x 1<br>Interleaving PP and PME ranks<br>This rank does only particle-particle work.<br><br>Domain decomposition rank 0, coordinates 0 0 0<br><br>The initial number of communication pulses is: X 2 Y 1 Z 1<br>The initial domain decomposition cell size is: X 0.94 nm Y 3.74 nm Z 3.74 nm<br><br>The maximum allowed distance for charge groups involved in interactions is:<br>                 non-bonded interactions           1.200 nm<br>            two-body bonded interactions  (-rdd)   1.200 nm<br>          multi-body bonded interactions  (-rdd)   0.935 nm<br>  atoms separated by up to 5 constraints  (-rcon)  0.935 nm<br><br>When dynamic load balancing gets turned on, these settings will change to:<br>The maximum number of communication pulses is: X 2 Y 2 Z 2<br>The minimum size for domain decomposition cells is 0.740 nm<br>The requested allowed shrink of DD cells (option -dds) is: 0.80<br>The allowed shrink of domain decomposition cells is: X 0.79 Y 0.20 Z 0.20<br>The maximum allowed distance for charge groups involved in interactions is:<br>                 non-bonded interactions           1.200 nm<br>            two-body bonded interactions  (-rdd)   1.200 nm<br>          multi-body bonded interactions  (-rdd)   0.740 nm<br>  atoms separated by up to 5 constraints  (-rcon)  0.740 nm<br>======================================================================<br><br><div><div class="gmail_extra"><div class="gmail_quote">On Tue, Sep 19, 2017 at 4:39 PM, Szilárd Páll <span dir="ltr">&lt;<a href="mailto:pall.szilard@gmail.com" target="_blank">pall.szilard@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">That sounds extreme -- although not unfamiliar (the same issue come up<br>
in GPU accelerated runs).<br>
<br>
What cut-off and grid spacing? And what node-count, is this at low,<br>
medium or high parallelization?<br>
--<br>
Szilárd<br>
<br>
<br>
On Tue, Sep 19, 2017 at 6:08 PM, John Eblen &lt;<a href="mailto:jeblen@acm.org">jeblen@acm.org</a>&gt; wrote:<br>
&gt; Hi<br>
&gt;<br>
&gt; On KNL, I achieve best performance by using the maximum number of PME nodes<br>
&gt; allowed.<br>
&gt; So I figured removing the upper bound might allow for even better<br>
&gt; performance.<br>
&gt;<br>
&gt;<br>
&gt; John<br>
&gt;<br>
&gt; On Tue, Sep 19, 2017 at 5:50 AM, Szilárd Páll &lt;<a href="mailto:pall.szilard@gmail.com">pall.szilard@gmail.com</a>&gt;<br>
&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt; Hi,<br>
&gt;&gt;<br>
&gt;&gt; Why would you want to increase the MPI rank count in PME? Is it to<br>
&gt;&gt; compensate for the thread scaling being worse than in the PP ranks?<br>
&gt;&gt;<br>
&gt;&gt; It might be more worthwhile improving PME multi-threading rather than<br>
&gt;&gt; allowing higher rank count.<br>
&gt;&gt;<br>
&gt;&gt; --<br>
&gt;&gt; Szilárd<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; On Tue, Sep 19, 2017 at 10:01 AM, Berk Hess &lt;<a href="mailto:hess@kth.se">hess@kth.se</a>&gt; wrote:<br>
&gt;&gt; &gt; On 2017-09-18 18:34, John Eblen wrote:<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Hi Szilárd<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; These runs used 2M huge pages. I will file a redmine shortly.<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; On a related topic, how difficult would it be to modify GROMACS to<br>
&gt;&gt; &gt; support &gt;<br>
&gt;&gt; &gt; 50%<br>
&gt;&gt; &gt; PME nodes?<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; That&#39;s not so hard, but I see little benefit, since then the MPI<br>
&gt;&gt; &gt; communication is not reduced much compared to all ranks doing PME.<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Berk<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; John<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; On Fri, Sep 15, 2017 at 6:37 PM, Szilárd Páll &lt;<a href="mailto:pall.szilard@gmail.com">pall.szilard@gmail.com</a>&gt;<br>
&gt;&gt; &gt; wrote:<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; Hi John,<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; Thanks for diagnosing the issue!<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; We have been aware of this behavior, but been both intentional (as we<br>
&gt;&gt; &gt;&gt; re-scan grids after the first pass at least once more); plus, it&#39;s<br>
&gt;&gt; &gt;&gt; also simply been considered a &quot;not too big of a deal&quot; given that in<br>
&gt;&gt; &gt;&gt; general mdrun has very low memory footprint. However, it seems that,<br>
&gt;&gt; &gt;&gt; at least on this particular machine, our assumption was wrong. What is<br>
&gt;&gt; &gt;&gt; the page sizes on Cori KNL?<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; Can you please file a redmine with your observations?<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; Thanks,<br>
&gt;&gt; &gt;&gt; --<br>
&gt;&gt; &gt;&gt; Szilárd<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; On Fri, Sep 15, 2017 at 8:25 PM, John Eblen &lt;<a href="mailto:jeblen@acm.org">jeblen@acm.org</a>&gt; wrote:<br>
&gt;&gt; &gt;&gt; &gt; This issue appears to not be a GROMACS problem so much as a problem<br>
&gt;&gt; &gt;&gt; &gt; with<br>
&gt;&gt; &gt;&gt; &gt; &quot;huge pages&quot; that is<br>
&gt;&gt; &gt;&gt; &gt; triggered by PME tuning. PME tuning creates a large data structure<br>
&gt;&gt; &gt;&gt; &gt; for<br>
&gt;&gt; &gt;&gt; &gt; every<br>
&gt;&gt; &gt;&gt; &gt; cutoff that it tries, which<br>
&gt;&gt; &gt;&gt; &gt; is replicated on each PME node. These data structures are not freed<br>
&gt;&gt; &gt;&gt; &gt; during<br>
&gt;&gt; &gt;&gt; &gt; tuning, so memory usage<br>
&gt;&gt; &gt;&gt; &gt; expands. Normally it is still too small to cause problems. With huge<br>
&gt;&gt; &gt;&gt; &gt; pages,<br>
&gt;&gt; &gt;&gt; &gt; however, I get errors from<br>
&gt;&gt; &gt;&gt; &gt; &quot;libhugetlbfs&quot; and very slow runs if more than about five cutoffs are<br>
&gt;&gt; &gt;&gt; &gt; attempted.<br>
&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; Sample output on NERSC Cori KNL with 32 nodes. Input system size is<br>
&gt;&gt; &gt;&gt; &gt; 248,101<br>
&gt;&gt; &gt;&gt; &gt; atoms.<br>
&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; step 0<br>
&gt;&gt; &gt;&gt; &gt; step 100, remaining wall clock time:    24 s<br>
&gt;&gt; &gt;&gt; &gt; step  140: timed with pme grid 128 128 128, coulomb cutoff 1.200:<br>
&gt;&gt; &gt;&gt; &gt; 66.2<br>
&gt;&gt; &gt;&gt; &gt; M-cycles<br>
&gt;&gt; &gt;&gt; &gt; step  210: timed with pme grid 112 112 112, coulomb cutoff 1.336:<br>
&gt;&gt; &gt;&gt; &gt; 69.6<br>
&gt;&gt; &gt;&gt; &gt; M-cycles<br>
&gt;&gt; &gt;&gt; &gt; step  280: timed with pme grid 100 100 100, coulomb cutoff 1.496:<br>
&gt;&gt; &gt;&gt; &gt; 63.6<br>
&gt;&gt; &gt;&gt; &gt; M-cycles<br>
&gt;&gt; &gt;&gt; &gt; step  350: timed with pme grid 84 84 84, coulomb cutoff 1.781: 85.9<br>
&gt;&gt; &gt;&gt; &gt; M-cycles<br>
&gt;&gt; &gt;&gt; &gt; step  420: timed with pme grid 96 96 96, coulomb cutoff 1.559: 68.8<br>
&gt;&gt; &gt;&gt; &gt; M-cycles<br>
&gt;&gt; &gt;&gt; &gt; step  490: timed with pme grid 100 100 100, coulomb cutoff 1.496:<br>
&gt;&gt; &gt;&gt; &gt; 68.3<br>
&gt;&gt; &gt;&gt; &gt; M-cycles<br>
&gt;&gt; &gt;&gt; &gt; libhugetlbfs [nid08887:140420]: WARNING: New heap segment map at<br>
&gt;&gt; &gt;&gt; &gt; 0x10001200000 failed: Cannot allocate memory<br>
&gt;&gt; &gt;&gt; &gt; libhugetlbfs [nid08881:97968]: WARNING: New heap segment map at<br>
&gt;&gt; &gt;&gt; &gt; 0x10001200000 failed: Cannot allocate memory<br>
&gt;&gt; &gt;&gt; &gt; libhugetlbfs [nid08881:97978]: WARNING: New heap segment map at<br>
&gt;&gt; &gt;&gt; &gt; 0x10001200000 failed: Cannot allocate memory<br>
&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; Szilárd, to answer to your questions: This is the verlet scheme. The<br>
&gt;&gt; &gt;&gt; &gt; problem<br>
&gt;&gt; &gt;&gt; &gt; happens during tuning, and<br>
&gt;&gt; &gt;&gt; &gt; no problems occur if -notunepme is used. In fact, the best<br>
&gt;&gt; &gt;&gt; &gt; performance<br>
&gt;&gt; &gt;&gt; &gt; thus<br>
&gt;&gt; &gt;&gt; &gt; far has been with 50% PME<br>
&gt;&gt; &gt;&gt; &gt; nodes, using huge pages, and &#39;-notunepme&#39;.<br>
&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; John<br>
&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; On Wed, Sep 13, 2017 at 6:20 AM, Szilárd Páll<br>
&gt;&gt; &gt;&gt; &gt; &lt;<a href="mailto:pall.szilard@gmail.com">pall.szilard@gmail.com</a>&gt;<br>
&gt;&gt; &gt;&gt; &gt; wrote:<br>
&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; Forking the discussion as now we&#39;ve learned more about the issue Åke<br>
&gt;&gt; &gt;&gt; &gt;&gt; is reporting and it is quiterather dissimilar.<br>
&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; On Mon, Sep 11, 2017 at 8:09 PM, John Eblen &lt;<a href="mailto:jeblen@acm.org">jeblen@acm.org</a>&gt; wrote:<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; Hi Szilárd<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; No, I&#39;m not using the group scheme.<br>
&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt;  $ grep -i &#39;cutoff-scheme&#39; md.log<br>
&gt;&gt; &gt;&gt; &gt;&gt;    cutoff-scheme                  = Verlet<br>
&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; The problem seems similar because:<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; 1) Deadlocks and very slow runs can be hard to distinguish.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; 2) Since Mark mentioned it, I assume he believes PME tuning is a<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; possible<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;     cause, which is also the cause in my situation.<br>
&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; Does that mean you tested with &quot;-notunepme&quot; and the excessive memory<br>
&gt;&gt; &gt;&gt; &gt;&gt; usage could not be reproduced? Did the memory usage increase only<br>
&gt;&gt; &gt;&gt; &gt;&gt; during the tuning or did it keep increasing after the tuning<br>
&gt;&gt; &gt;&gt; &gt;&gt; completed?<br>
&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; 3) Åke may be experiencing higher-than-normal memory usage as far<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; as<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; I<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; know.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;     Not sure how you know otherwise.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; 4) By &quot;successful,&quot; I assume you mean the tuning had completed.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; That<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; doesn&#39;t<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;     mean, though, that the tuning could not be creating conditions<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; that<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; causes the<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;     problem, like an excessively high cutoff.<br>
&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; Sure. However, it&#39;s unlikely that the tuning creates conditions<br>
&gt;&gt; &gt;&gt; &gt;&gt; under<br>
&gt;&gt; &gt;&gt; &gt;&gt; which the run proceeds after the after the initial tuning phase and<br>
&gt;&gt; &gt;&gt; &gt;&gt; keeps allocating memory (which is more prone to be the source of<br>
&gt;&gt; &gt;&gt; &gt;&gt; issues).<br>
&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; I suggest to first rule our the bug I linked and if that&#39;s not the<br>
&gt;&gt; &gt;&gt; &gt;&gt; culprit, we can have a closer look.<br>
&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; Cheers,<br>
&gt;&gt; &gt;&gt; &gt;&gt; --<br>
&gt;&gt; &gt;&gt; &gt;&gt; Szilárd<br>
&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; John<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; On Mon, Sep 11, 2017 at 1:09 PM, Szilárd Páll<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; &lt;<a href="mailto:pall.szilard@gmail.com">pall.szilard@gmail.com</a>&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; wrote:<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; John,<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; In what way do you think your problem is similar? Åke seems to be<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; experiencing a deadlock after successful PME tuning, much later<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; during<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; the run, but no excessive memory usage.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; Do you happen to be using the group scheme with 2016.x (release<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; code)?<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; Your issue sounds more like it could be related to the the<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; excessive<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; tuning bug with group scheme fixed quite a few months ago, but<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; it&#39;s<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; yet to be released (<a href="https://redmine.gromacs.org/issues/2200" rel="noreferrer" target="_blank">https://redmine.gromacs.org/<wbr>issues/2200</a>).<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; Cheers,<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; --<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; Szilárd<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; On Mon, Sep 11, 2017 at 6:50 PM, John Eblen &lt;<a href="mailto:jeblen@acm.org">jeblen@acm.org</a>&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; wrote:<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; Hi<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; I&#39;m having a similar problem that is related to PME tuning.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; When<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; it<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; is<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; enabled, GROMACS often, but not<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; always, slows to a crawl and uses excessive amounts of memory.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; Using<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; &quot;huge<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; pages&quot; and setting a high<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; number of PME processes seems to exacerbate the problem.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; Also, occurrences of this problem seem to correlate with how<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; high<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; the<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; tuning<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; raises the cutoff value.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; Mark, can you give us more information on the problems with PME<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; tuning?<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; Is<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; there a redmine?<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; Thanks<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; John<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; On Mon, Sep 11, 2017 at 10:53 AM, Mark Abraham<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; &lt;<a href="mailto:mark.j.abraham@gmail.com">mark.j.abraham@gmail.com</a>&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; wrote:<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; Hi,<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; Thanks. Was PME tuning active? Does it reproduce if that is<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; disabled?<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; Is<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; the PME tuning still active? How many steps have taken place<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; (at<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; least<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; as<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; reported in the log file but ideally from processes)?<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; Mark<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; On Mon, Sep 11, 2017 at 4:42 PM Åke Sandgren<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &lt;<a href="mailto:ake.sandgren@hpc2n.umu.se">ake.sandgren@hpc2n.umu.se</a>&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; wrote:<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; My debugger run finally got to the lockup.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; All processes are waiting on various MPI operations.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; Attached a stack dump of all 56 tasks.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; I&#39;ll keep the debug session running for a while in case<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; anyone<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; wants<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; some more detailed data.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; This is a RelwithDeb build though so not everything is<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; available.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; On 09/08/2017 11:28 AM, Berk Hess wrote:<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; But you should be able to get some (limited) information by<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; attaching a<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; debugger to an aldready running process with a release<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; build.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; If you plan on compiling and running a new case, use a<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; release<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; +<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; debug<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; symbols build. That should run as fast as a release build.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; Cheers,<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; Berk<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; On 2017-09-08 11:23, Åke Sandgren wrote:<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; We have, at least, one case that when run over 2 nodes, or<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; more,<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; quite<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; often (always) hangs, i.e. no more output in md.log or<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; otherwise<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; while<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; mdrun still consumes cpu time. It takes a random time<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; before<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; it<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; happens,<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; like 1-3 days.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; The case can be shared if someone else wants to<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; investigate.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; I&#39;m<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; planning to run it in the debugger to be able to break and<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; look<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; at<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; states when it happens, but since it takes so long with<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; the<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; production<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; build it is not something i&#39;m looking forward to.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; On 09/08/2017 11:13 AM, Berk Hess wrote:<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt;&gt; Hi,<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt;&gt; We are far behind schedule for the 2017 release. We are<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt;&gt; working<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt;&gt; hard<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt;&gt; on<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt;&gt; it, but I don&#39;t think we can promise a date yet.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt;&gt; We have a 2016.4 release planned for this week (might<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt;&gt; slip<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt;&gt; to<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt;&gt; next<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt;&gt; week). But if you can give us enough details to track<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt;&gt; down<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt;&gt; your<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt;&gt; hanging<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt;&gt; issue, we might be able to fix it in 2016.4.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; --<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; Ake Sandgren, HPC2N, Umea University, S-90187 Umea, Sweden<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; Internet: <a href="mailto:ake@hpc2n.umu.se">ake@hpc2n.umu.se</a>   Phone: <a href="tel:%2B46%2090%207866134" value="+46907866134">+46 90 7866134</a> Fax: +46<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; 90-580<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; 14<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; Mobile: <a href="tel:%2B46%2070%207716134" value="+46707716134">+46 70 7716134</a> WWW: <a href="http://www.hpc2n.umu.se" rel="noreferrer" target="_blank">http://www.hpc2n.umu.se</a><br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; --<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; Gromacs Developers mailing list<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; * Please search the archive at<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; <a href="http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List" rel="noreferrer" target="_blank">http://www.gromacs.org/<wbr>Support/Mailing_Lists/GMX-<wbr>developers_List</a><br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; before<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; posting!<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; * Can&#39;t post? Read<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; <a href="http://www.gromacs.org/Support/Mailing_Lists" rel="noreferrer" target="_blank">http://www.gromacs.org/<wbr>Support/Mailing_Lists</a><br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; * For (un)subscribe requests visit<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; <a href="https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers" rel="noreferrer" target="_blank">https://maillist.sys.kth.se/<wbr>mailman/listinfo/gromacs.org_<wbr>gmx-developers</a><br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; or send a mail to <a href="mailto:gmx-developers-request@gromacs.org">gmx-developers-request@<wbr>gromacs.org</a>.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; --<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; Gromacs Developers mailing list<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; * Please search the archive at<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; <a href="http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List" rel="noreferrer" target="_blank">http://www.gromacs.org/<wbr>Support/Mailing_Lists/GMX-<wbr>developers_List</a><br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; before<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; posting!<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; * Can&#39;t post? Read<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; <a href="http://www.gromacs.org/Support/Mailing_Lists" rel="noreferrer" target="_blank">http://www.gromacs.org/<wbr>Support/Mailing_Lists</a><br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; * For (un)subscribe requests visit<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; <a href="https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers" rel="noreferrer" target="_blank">https://maillist.sys.kth.se/<wbr>mailman/listinfo/gromacs.org_<wbr>gmx-developers</a><br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; or<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; send a mail to <a href="mailto:gmx-developers-request@gromacs.org">gmx-developers-request@<wbr>gromacs.org</a>.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; --<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; Gromacs Developers mailing list<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; * Please search the archive at<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; <a href="http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List" rel="noreferrer" target="_blank">http://www.gromacs.org/<wbr>Support/Mailing_Lists/GMX-<wbr>developers_List</a><br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; before<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; posting!<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; * Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" rel="noreferrer" target="_blank">http://www.gromacs.org/<wbr>Support/Mailing_Lists</a><br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; * For (un)subscribe requests visit<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; <a href="https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers" rel="noreferrer" target="_blank">https://maillist.sys.kth.se/<wbr>mailman/listinfo/gromacs.org_<wbr>gmx-developers</a><br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; or<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; send a mail to <a href="mailto:gmx-developers-request@gromacs.org">gmx-developers-request@<wbr>gromacs.org</a>.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; --<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; Gromacs Developers mailing list<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; * Please search the archive at<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; <a href="http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List" rel="noreferrer" target="_blank">http://www.gromacs.org/<wbr>Support/Mailing_Lists/GMX-<wbr>developers_List</a><br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; before<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; posting!<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; * Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" rel="noreferrer" target="_blank">http://www.gromacs.org/<wbr>Support/Mailing_Lists</a><br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; * For (un)subscribe requests visit<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; <a href="https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers" rel="noreferrer" target="_blank">https://maillist.sys.kth.se/<wbr>mailman/listinfo/gromacs.org_<wbr>gmx-developers</a><br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; or<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; send a mail to <a href="mailto:gmx-developers-request@gromacs.org">gmx-developers-request@<wbr>gromacs.org</a>.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; --<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; Gromacs Developers mailing list<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; * Please search the archive at<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; <a href="http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List" rel="noreferrer" target="_blank">http://www.gromacs.org/<wbr>Support/Mailing_Lists/GMX-<wbr>developers_List</a><br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; before<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; posting!<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; * Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" rel="noreferrer" target="_blank">http://www.gromacs.org/<wbr>Support/Mailing_Lists</a><br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; * For (un)subscribe requests visit<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; <a href="https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers" rel="noreferrer" target="_blank">https://maillist.sys.kth.se/<wbr>mailman/listinfo/gromacs.org_<wbr>gmx-developers</a><br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; or<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; send a mail to <a href="mailto:gmx-developers-request@gromacs.org">gmx-developers-request@<wbr>gromacs.org</a>.<br>
&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; --<br>
&gt;&gt; &gt; Gromacs Developers mailing list<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; * Please search the archive at<br>
&gt;&gt; &gt; <a href="http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List" rel="noreferrer" target="_blank">http://www.gromacs.org/<wbr>Support/Mailing_Lists/GMX-<wbr>developers_List</a> before<br>
&gt;&gt; &gt; posting!<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; * Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" rel="noreferrer" target="_blank">http://www.gromacs.org/<wbr>Support/Mailing_Lists</a><br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; * For (un)subscribe requests visit<br>
&gt;&gt; &gt; <a href="https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers" rel="noreferrer" target="_blank">https://maillist.sys.kth.se/<wbr>mailman/listinfo/gromacs.org_<wbr>gmx-developers</a><br>
&gt;&gt; &gt; or<br>
&gt;&gt; &gt; send a mail to <a href="mailto:gmx-developers-request@gromacs.org">gmx-developers-request@<wbr>gromacs.org</a>.<br>
&gt;&gt; --<br>
&gt;&gt; Gromacs Developers mailing list<br>
&gt;&gt;<br>
&gt;&gt; * Please search the archive at<br>
&gt;&gt; <a href="http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List" rel="noreferrer" target="_blank">http://www.gromacs.org/<wbr>Support/Mailing_Lists/GMX-<wbr>developers_List</a> before<br>
&gt;&gt; posting!<br>
&gt;&gt;<br>
&gt;&gt; * Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" rel="noreferrer" target="_blank">http://www.gromacs.org/<wbr>Support/Mailing_Lists</a><br>
&gt;&gt;<br>
&gt;&gt; * For (un)subscribe requests visit<br>
&gt;&gt; <a href="https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers" rel="noreferrer" target="_blank">https://maillist.sys.kth.se/<wbr>mailman/listinfo/gromacs.org_<wbr>gmx-developers</a> or<br>
&gt;&gt; send a mail to <a href="mailto:gmx-developers-request@gromacs.org">gmx-developers-request@<wbr>gromacs.org</a>.<br>
&gt;<br>
&gt;<br>
<span class="gmail-HOEnZb"><font color="#888888">&gt;<br>
&gt; --<br>
&gt; Gromacs Developers mailing list<br>
&gt;<br>
&gt; * Please search the archive at<br>
&gt; <a href="http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List" rel="noreferrer" target="_blank">http://www.gromacs.org/<wbr>Support/Mailing_Lists/GMX-<wbr>developers_List</a> before<br>
&gt; posting!<br>
&gt;<br>
&gt; * Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" rel="noreferrer" target="_blank">http://www.gromacs.org/<wbr>Support/Mailing_Lists</a><br>
&gt;<br>
&gt; * For (un)subscribe requests visit<br>
&gt; <a href="https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers" rel="noreferrer" target="_blank">https://maillist.sys.kth.se/<wbr>mailman/listinfo/gromacs.org_<wbr>gmx-developers</a> or<br>
&gt; send a mail to <a href="mailto:gmx-developers-request@gromacs.org">gmx-developers-request@<wbr>gromacs.org</a>.<br>
--<br>
Gromacs Developers mailing list<br>
<br>
* Please search the archive at <a href="http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List" rel="noreferrer" target="_blank">http://www.gromacs.org/<wbr>Support/Mailing_Lists/GMX-<wbr>developers_List</a> before posting!<br>
<br>
* Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" rel="noreferrer" target="_blank">http://www.gromacs.org/<wbr>Support/Mailing_Lists</a><br>
<br>
* For (un)subscribe requests visit<br>
<a href="https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers" rel="noreferrer" target="_blank">https://maillist.sys.kth.se/<wbr>mailman/listinfo/gromacs.org_<wbr>gmx-developers</a> or send a mail to <a href="mailto:gmx-developers-request@gromacs.org">gmx-developers-request@<wbr>gromacs.org</a>.</font></span></blockquote></div><br></div></div></div>