<div dir="ltr">Hi,<div><br></div><div>OK we should probably document that better as we migrate our web presence. We moved away from major.minor because it meant people wondered about what signified each number changing, and didn&#39;t know they were running code that was ten years old...</div><div><br></div><div>On this platform, you should only consider using the gcc compiler - xlc does not work well in any of our hands.</div><div><br></div><div>Mark</div></div><br><div class="gmail_quote"><div dir="ltr">On Fri, May 19, 2017 at 5:05 PM Sedova, Ada A. &lt;<a href="mailto:sedovaaa@ornl.gov">sedovaaa@ornl.gov</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Because of the naming, it seemed that 5.1.etc series was the latest long-term stable release, and the &quot;2016 series&quot; were not a long-term stable releases, as they were not prefixed by a number like 5.<br>
<br>
<br>
________________________________________<br>
From: <a href="mailto:gromacs.org_gmx-developers-bounces@maillist.sys.kth.se" target="_blank">gromacs.org_gmx-developers-bounces@maillist.sys.kth.se</a> &lt;<a href="mailto:gromacs.org_gmx-developers-bounces@maillist.sys.kth.se" target="_blank">gromacs.org_gmx-developers-bounces@maillist.sys.kth.se</a>&gt; on behalf of Szilárd Páll &lt;<a href="mailto:pall.szilard@gmail.com" target="_blank">pall.szilard@gmail.com</a>&gt;<br>
Sent: Friday, May 19, 2017 10:58 AM<br>
To: Discussion list for GROMACS development<br>
Subject: Re: [gmx-developers] getting gromacs to run on ORNL summitdev<br>
<br>
On Fri, May 19, 2017 at 4:54 PM, Sedova, Ada A. &lt;<a href="mailto:sedovaaa@ornl.gov" target="_blank">sedovaaa@ornl.gov</a>&gt; wrote:<br>
&gt; Will do. Wasn&#39;t sure if it was too beta. Will try today.<br>
<br>
Not sure what you are referring to? Have you looked at the release<br>
dates, the 2016 release series has been out for 9+ months.<br>
<br>
<a href="http://manual.gromacs.org/documentation/" rel="noreferrer" target="_blank">http://manual.gromacs.org/documentation/</a><br>
<br>
&gt;<br>
&gt;<br>
&gt; Ada Sedova<br>
&gt; Postdoctoral Research Associate<br>
&gt; Scientific Computing Group, NCCS<br>
&gt; Oak Ridge National Laboratory, Oak Ridge, TN<br>
&gt;<br>
&gt; ________________________________________<br>
&gt; From: <a href="mailto:gromacs.org_gmx-developers-bounces@maillist.sys.kth.se" target="_blank">gromacs.org_gmx-developers-bounces@maillist.sys.kth.se</a> &lt;<a href="mailto:gromacs.org_gmx-developers-bounces@maillist.sys.kth.se" target="_blank">gromacs.org_gmx-developers-bounces@maillist.sys.kth.se</a>&gt; on behalf of Szilárd Páll &lt;<a href="mailto:pall.szilard@gmail.com" target="_blank">pall.szilard@gmail.com</a>&gt;<br>
&gt; Sent: Friday, May 19, 2017 10:53 AM<br>
&gt; To: Discussion list for GROMACS development<br>
&gt; Subject: Re: [gmx-developers] getting gromacs to run on ORNL summitdev<br>
&gt;<br>
&gt; Have you tried the *latest* release?<br>
&gt; --<br>
&gt; Szilárd<br>
&gt;<br>
&gt;<br>
&gt; On Fri, May 19, 2017 at 4:51 PM, Sedova, Ada A. &lt;<a href="mailto:sedovaaa@ornl.gov" target="_blank">sedovaaa@ornl.gov</a>&gt; wrote:<br>
&gt;&gt; Szilárd,<br>
&gt;&gt;<br>
&gt;&gt; Ok, thanks. I was talking about the SIMD=VMX vs VSX directives, and yes I know it is ok not to specify, but we would like the maximum performance. But this is not the important issue, this is superfluous to the actual question asked; I was just trying to show you that the build seemed to be successful.<br>
&gt;&gt;<br>
&gt;&gt; *The main problem I am writing about is the CudaMalloc error I get when trying to run more than 4 mpi ranks. Please see the later sections of the original email.*<br>
&gt;&gt;<br>
&gt;&gt; Thanks so much,<br>
&gt;&gt; Ada<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; Ada Sedova<br>
&gt;&gt; Postdoctoral Research Associate<br>
&gt;&gt; Scientific Computing Group, NCCS<br>
&gt;&gt; Oak Ridge National Laboratory, Oak Ridge, TN<br>
&gt;&gt;<br>
&gt;&gt; ________________________________________<br>
&gt;&gt; From: <a href="mailto:gromacs.org_gmx-developers-bounces@maillist.sys.kth.se" target="_blank">gromacs.org_gmx-developers-bounces@maillist.sys.kth.se</a> &lt;<a href="mailto:gromacs.org_gmx-developers-bounces@maillist.sys.kth.se" target="_blank">gromacs.org_gmx-developers-bounces@maillist.sys.kth.se</a>&gt; on behalf of Szilárd Páll &lt;<a href="mailto:pall.szilard@gmail.com" target="_blank">pall.szilard@gmail.com</a>&gt;<br>
&gt;&gt; Sent: Friday, May 19, 2017 10:33 AM<br>
&gt;&gt; To: Discussion list for GROMACS development<br>
&gt;&gt; Subject: Re: [gmx-developers] getting gromacs to run on ORNL summitdev<br>
&gt;&gt;<br>
&gt;&gt; Hi Ada,<br>
&gt;&gt;<br>
&gt;&gt; Firstly of all, please use the latest release, v2016 has been tested<br>
&gt;&gt; quite well on IBM Minsky nodes.<br>
&gt;&gt;<br>
&gt;&gt; Not sure which altivec option are you referring to, but none should be<br>
&gt;&gt; necessary, the build system should generate correct and sufficient<br>
&gt;&gt; compiler options for decent performance (unless of course you want to<br>
&gt;&gt; tune them further).<br>
&gt;&gt;<br>
&gt;&gt; NVML is only needed if you want reporting of the clocks or if you want<br>
&gt;&gt; to allow mdrun to change these -- which won&#39;t work as AFAIK NVIDIA<br>
&gt;&gt; does not allow user-space process to change clocks on the P100 (and<br>
&gt;&gt; later?).<br>
&gt;&gt; make check should also work, but it&#39;s easier of you build without<br>
&gt;&gt; regressiontests enabled in CMake and run the regressiontests<br>
&gt;&gt; separately. That way you can specify the MPI launcher, custom binary<br>
&gt;&gt; suffix etc, e.g.<br>
&gt;&gt; perl <a href="http://gmxtest.pl" rel="noreferrer" target="_blank">gmxtest.pl</a> -mpirun mpirun -np N -ntomp M all<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; Cheers,<br>
&gt;&gt; --<br>
&gt;&gt; Szilárd<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; On Fri, May 19, 2017 at 3:45 PM, Sedova, Ada A. &lt;<a href="mailto:sedovaaa@ornl.gov" target="_blank">sedovaaa@ornl.gov</a>&gt; wrote:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Hi folks,<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; I am a member of the Scientific Computing group at Oak Ridge National Lab&#39;s<br>
&gt;&gt;&gt; National Center for Computational Sciences (NCCS). We are preparing high<br>
&gt;&gt;&gt; performance codes for public use on our new Summit system by testing on the<br>
&gt;&gt;&gt; prototype SummitDev:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; The Summitdev system is an early access system that is one generation<br>
&gt;&gt;&gt; removed from OLCF’s next big supercomputer, Summit. The system contains<br>
&gt;&gt;&gt; three racks, each with 18 IBM POWER8 S822LC nodes for a total of 54 nodes.<br>
&gt;&gt;&gt; Each IBM S822LC node has 2 IBM POWER8 CPUs and 4 NVIDIA Tesla P100 GPUs. The<br>
&gt;&gt;&gt; POWER8 CPUs have 32 8GB DDR4 memory (256 GB). Each POWER8 node has 10 cores<br>
&gt;&gt;&gt; with 8 HW threads. The GPUs are connected by NVLink 1.0 at 80GB/s and each<br>
&gt;&gt;&gt; GPU has 16GB HBM2 memory. The nodes are connected in a full fat-tree via EDR<br>
&gt;&gt;&gt; InfiniBand. The racks are liquid cooled with a heat exchanger rate.<br>
&gt;&gt;&gt; Summitdev has access to Spider 2, the OLCF’s center-wide Lustre parallel<br>
&gt;&gt;&gt; file system.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; I have built gromacs 5.1.4., seemingly successfully, using GPU, MPI, SIMD<br>
&gt;&gt;&gt; options with CMake directives (I didn&#39;t get the alvtivec option completely<br>
&gt;&gt;&gt; right, but that should be ok). The only things that were not found during<br>
&gt;&gt;&gt; the cmake were the NVML library (we do not have the Deployment package<br>
&gt;&gt;&gt; installed), LAPACK (although it did find essl after I set the BLAS<br>
&gt;&gt;&gt; directive), and some includes like io.h.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; I cannot use the make check because on summitdev I have to launch gmx_mpi<br>
&gt;&gt;&gt; with mpirun, and I think the make check does not call gmx that way. I have<br>
&gt;&gt;&gt; manually tested the build tools (pdb2gmx, editconf, grommp, solvate), and<br>
&gt;&gt;&gt; they work fine.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; However, I cannot get mdrun to work even on one node on a small box of<br>
&gt;&gt;&gt; water. After playing with the number of processes so that the openMP threads<br>
&gt;&gt;&gt; message stopped crying, I get the following:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;cudaMallocHost of size 1024128 bytes failed: all CUDA-capable devices are<br>
&gt;&gt;&gt;&gt;&gt; busy or unavailable<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Here is the complete context for this error:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; ****************************************************************************************************<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; bash-4.2$ mpirun -np 80 /ccs/home/adaa/gromacs/bin/gmx_mpi mdrun -v -deffnm<br>
&gt;&gt;&gt; water_em<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;                    :-) GROMACS - gmx mdrun, VERSION 5.1.4 (-:<br>
&gt;&gt;&gt;                             GROMACS is written by:<br>
&gt;&gt;&gt;      Emile Apol      Rossen Apostolov  Herman J.C. Berendsen    Par Bjelkmar<br>
&gt;&gt;&gt;  Aldert van Buuren   Rudi van Drunen     Anton Feenstra   Sebastian Fritsch<br>
&gt;&gt;&gt;   Gerrit Groenhof   Christoph Junghans   Anca Hamuraru    Vincent Hindriksen<br>
&gt;&gt;&gt;  Dimitrios Karkoulis    Peter Kasson        Jiri Kraus      Carsten Kutzner<br>
&gt;&gt;&gt;     Per Larsson      Justin A. Lemkul   Magnus Lundborg   Pieter Meulenhoff<br>
&gt;&gt;&gt;    Erik Marklund      Teemu Murtola       Szilard Pall       Sander Pronk<br>
&gt;&gt;&gt;    Roland Schulz     Alexey Shvetsov     Michael Shirts     Alfons Sijbers<br>
&gt;&gt;&gt;    Peter Tieleman    Teemu Virolainen  Christian Wennberg    Maarten Wolf<br>
&gt;&gt;&gt;                            and the project leaders:<br>
&gt;&gt;&gt;         Mark Abraham, Berk Hess, Erik Lindahl, and David van der Spoel<br>
&gt;&gt;&gt; Copyright (c) 1991-2000, University of Groningen, The Netherlands.<br>
&gt;&gt;&gt; Copyright (c) 2001-2015, The GROMACS development team at<br>
&gt;&gt;&gt; Uppsala University, Stockholm University and<br>
&gt;&gt;&gt; the Royal Institute of Technology, Sweden.<br>
&gt;&gt;&gt; check out <a href="http://www.gromacs.org" rel="noreferrer" target="_blank">http://www.gromacs.org</a> for more information.<br>
&gt;&gt;&gt; GROMACS is free software; you can redistribute it and/or modify it<br>
&gt;&gt;&gt; under the terms of the GNU Lesser General Public License<br>
&gt;&gt;&gt; as published by the Free Software Foundation; either version 2.1<br>
&gt;&gt;&gt; of the License, or (at your option) any later version.<br>
&gt;&gt;&gt; GROMACS:      gmx mdrun, VERSION 5.1.4<br>
&gt;&gt;&gt; Executable:   /ccs/home/adaa/gromacs/bin/gmx_mpi<br>
&gt;&gt;&gt; Data prefix:  /ccs/home/adaa/gromacs<br>
&gt;&gt;&gt; Command line:<br>
&gt;&gt;&gt;   gmx_mpi mdrun -v -deffnm water_em<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Back Off! I just backed up water_em.log to ./#water_em.log.15#<br>
&gt;&gt;&gt; Number of logical cores detected (160) does not match the number reported by<br>
&gt;&gt;&gt; OpenMP (80).<br>
&gt;&gt;&gt; Consider setting the launch configuration manually!<br>
&gt;&gt;&gt; Running on 4 nodes with total 640 logical cores, 16 compatible GPUs<br>
&gt;&gt;&gt;   Logical cores per node:   160<br>
&gt;&gt;&gt;   Compatible GPUs per node:  4<br>
&gt;&gt;&gt;   All nodes have identical type(s) of GPUs<br>
&gt;&gt;&gt; Hardware detected on host summitdev-r0c1n04 (the node of MPI rank 0):<br>
&gt;&gt;&gt;   CPU info:<br>
&gt;&gt;&gt;     Vendor: IBM<br>
&gt;&gt;&gt;     Brand:  POWER8NVL (raw), altivec supported<br>
&gt;&gt;&gt;     SIMD instructions most likely to fit this hardware: IBM_VSX<br>
&gt;&gt;&gt;     SIMD instructions selected at GROMACS compile time: IBM_VMX<br>
&gt;&gt;&gt;   GPU info:<br>
&gt;&gt;&gt;     Number of GPUs detected: 4<br>
&gt;&gt;&gt;     #0: NVIDIA Tesla P100-SXM2-16GB, compute cap.: 6.0, ECC: yes, stat:<br>
&gt;&gt;&gt; compatible<br>
&gt;&gt;&gt;     #1: NVIDIA Tesla P100-SXM2-16GB, compute cap.: 6.0, ECC: yes, stat:<br>
&gt;&gt;&gt; compatible<br>
&gt;&gt;&gt;     #2: NVIDIA Tesla P100-SXM2-16GB, compute cap.: 6.0, ECC: yes, stat:<br>
&gt;&gt;&gt; compatible<br>
&gt;&gt;&gt;     #3: NVIDIA Tesla P100-SXM2-16GB, compute cap.: 6.0, ECC: yes, stat:<br>
&gt;&gt;&gt; compatible<br>
&gt;&gt;&gt; Compiled SIMD instructions: IBM_VMX, GROMACS could use IBM_VSX on this<br>
&gt;&gt;&gt; machine, which is better<br>
&gt;&gt;&gt; Reading file water_em.tpr, VERSION 5.1.4 (single precision)<br>
&gt;&gt;&gt; Using 80 MPI processes<br>
&gt;&gt;&gt; Using 8 OpenMP threads per MPI process<br>
&gt;&gt;&gt; On host summitdev-r0c1n04 4 compatible GPUs are present, with IDs 0,1,2,3<br>
&gt;&gt;&gt; On host summitdev-r0c1n04 4 GPUs auto-selected for this run.<br>
&gt;&gt;&gt; Mapping of GPU IDs to the 20 PP ranks in this node:<br>
&gt;&gt;&gt; 0,0,0,0,0,1,1,1,1,1,2,2,2,2,2,3,3,3,3,3<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; NOTE: GROMACS was configured without NVML support hence it can not exploit<br>
&gt;&gt;&gt;       application clocks of the detected Tesla P100-SXM2-16GB GPU to improve<br>
&gt;&gt;&gt; performance.<br>
&gt;&gt;&gt;       Recompile with the NVML library (compatible with the driver used) or<br>
&gt;&gt;&gt; set application clocks manually.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; -------------------------------------------------------<br>
&gt;&gt;&gt; Program gmx mdrun, VERSION 5.1.4<br>
&gt;&gt;&gt; Source code file:<br>
&gt;&gt;&gt; /ccs/home/adaa/gromacs-5.1.4/src/gromacs/gmxlib/cuda_tools/<a href="http://pmalloc_cuda.cu" rel="noreferrer" target="_blank">pmalloc_cuda.cu</a>,<br>
&gt;&gt;&gt; line: 70<br>
&gt;&gt;&gt; Fatal error:<br>
&gt;&gt;&gt; cudaMallocHost of size 1024128 bytes failed: all CUDA-capable devices are<br>
&gt;&gt;&gt; busy or unavailable<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; ****************************************************************************************************<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Thanks for any help you can offer.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Best,<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Ada<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Ada Sedova<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Postdoctoral Research Associate<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Scientific Computing Group, NCCS<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Oak Ridge National Laboratory, Oak Ridge, TN<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; --<br>
&gt;&gt;&gt; Gromacs Developers mailing list<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; * Please search the archive at<br>
&gt;&gt;&gt; <a href="http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List" rel="noreferrer" target="_blank">http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List</a> before<br>
&gt;&gt;&gt; posting!<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; * Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" rel="noreferrer" target="_blank">http://www.gromacs.org/Support/Mailing_Lists</a><br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; * For (un)subscribe requests visit<br>
&gt;&gt;&gt; <a href="https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers" rel="noreferrer" target="_blank">https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers</a> or<br>
&gt;&gt;&gt; send a mail to <a href="mailto:gmx-developers-request@gromacs.org" target="_blank">gmx-developers-request@gromacs.org</a>.<br>
&gt;&gt; --<br>
&gt;&gt; Gromacs Developers mailing list<br>
&gt;&gt;<br>
&gt;&gt; * Please search the archive at <a href="http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List" rel="noreferrer" target="_blank">http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List</a> before posting!<br>
&gt;&gt;<br>
&gt;&gt; * Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" rel="noreferrer" target="_blank">http://www.gromacs.org/Support/Mailing_Lists</a><br>
&gt;&gt;<br>
&gt;&gt; * For (un)subscribe requests visit<br>
&gt;&gt; <a href="https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers" rel="noreferrer" target="_blank">https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers</a> or send a mail to <a href="mailto:gmx-developers-request@gromacs.org" target="_blank">gmx-developers-request@gromacs.org</a>.<br>
&gt;&gt; --<br>
&gt;&gt; Gromacs Developers mailing list<br>
&gt;&gt;<br>
&gt;&gt; * Please search the archive at <a href="http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List" rel="noreferrer" target="_blank">http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List</a> before posting!<br>
&gt;&gt;<br>
&gt;&gt; * Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" rel="noreferrer" target="_blank">http://www.gromacs.org/Support/Mailing_Lists</a><br>
&gt;&gt;<br>
&gt;&gt; * For (un)subscribe requests visit<br>
&gt;&gt; <a href="https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers" rel="noreferrer" target="_blank">https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers</a> or send a mail to <a href="mailto:gmx-developers-request@gromacs.org" target="_blank">gmx-developers-request@gromacs.org</a>.<br>
&gt; --<br>
&gt; Gromacs Developers mailing list<br>
&gt;<br>
&gt; * Please search the archive at <a href="http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List" rel="noreferrer" target="_blank">http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List</a> before posting!<br>
&gt;<br>
&gt; * Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" rel="noreferrer" target="_blank">http://www.gromacs.org/Support/Mailing_Lists</a><br>
&gt;<br>
&gt; * For (un)subscribe requests visit<br>
&gt; <a href="https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers" rel="noreferrer" target="_blank">https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers</a> or send a mail to <a href="mailto:gmx-developers-request@gromacs.org" target="_blank">gmx-developers-request@gromacs.org</a>.<br>
&gt; --<br>
&gt; Gromacs Developers mailing list<br>
&gt;<br>
&gt; * Please search the archive at <a href="http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List" rel="noreferrer" target="_blank">http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List</a> before posting!<br>
&gt;<br>
&gt; * Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" rel="noreferrer" target="_blank">http://www.gromacs.org/Support/Mailing_Lists</a><br>
&gt;<br>
&gt; * For (un)subscribe requests visit<br>
&gt; <a href="https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers" rel="noreferrer" target="_blank">https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers</a> or send a mail to <a href="mailto:gmx-developers-request@gromacs.org" target="_blank">gmx-developers-request@gromacs.org</a>.<br>
--<br>
Gromacs Developers mailing list<br>
<br>
* Please search the archive at <a href="http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List" rel="noreferrer" target="_blank">http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List</a> before posting!<br>
<br>
* Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" rel="noreferrer" target="_blank">http://www.gromacs.org/Support/Mailing_Lists</a><br>
<br>
* For (un)subscribe requests visit<br>
<a href="https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers" rel="noreferrer" target="_blank">https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers</a> or send a mail to <a href="mailto:gmx-developers-request@gromacs.org" target="_blank">gmx-developers-request@gromacs.org</a>.<br>
--<br>
Gromacs Developers mailing list<br>
<br>
* Please search the archive at <a href="http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List" rel="noreferrer" target="_blank">http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List</a> before posting!<br>
<br>
* Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" rel="noreferrer" target="_blank">http://www.gromacs.org/Support/Mailing_Lists</a><br>
<br>
* For (un)subscribe requests visit<br>
<a href="https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers" rel="noreferrer" target="_blank">https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers</a> or send a mail to <a href="mailto:gmx-developers-request@gromacs.org" target="_blank">gmx-developers-request@gromacs.org</a>.<br>
</blockquote></div>