<div dir="ltr">Hi,<div><br></div><div>what problem do you have with ICC14? Both ICC14 and ICC15 should work fine. There was an issue with ICC14+static-libraries (9e8061e13f48, 4.6.7 and 5.0.1) and ICC14+unit-tests(b0e60e91add6, 5.0.1). Both are fixed in release-5-0 and will be included 5.0.2. You can either use the release-5-0 branch, just apply the patch, wait till 5.0.2 (should be soon), or don&#39;t use static-libraries (default) and don&#39;t try to run the unit-tests (the compiler issue isn&#39;t present in the main code thus even though the unit tests fail the actual program is OK).</div><div><br></div><div>Roland</div></div><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Sep 29, 2014 at 10:35 AM, Kevin Chen <span dir="ltr">&lt;<a href="mailto:fch6699@gmail.com" target="_blank">fch6699@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi Guys,<br>
<br>
Was wondering if GROMACS will support ICC 14 in the near future?<br>
<br>
Kevin Chen, Ph.D.<br>
HPC Applications, TACC<br>
<br>
<br>
-----Original Message-----<br>
From: <a href="mailto:gromacs.org_gmx-developers-bounces@maillist.sys.kth.se">gromacs.org_gmx-developers-bounces@maillist.sys.kth.se</a> [mailto:<a href="mailto:gromacs.org_gmx-developers-bounces@maillist.sys.kth.se">gromacs.org_gmx-developers-bounces@maillist.sys.kth.se</a>] On Behalf Of Alexey Shvetsov<br>
Sent: Sunday, September 28, 2014 3:09 PM<br>
To: <a href="mailto:gmx-developers@gromacs.org">gmx-developers@gromacs.org</a><br>
Subject: Re: [gmx-developers] Possible bug in gmx<br>
<br>
Mark Abraham писал 28-09-2014 18:17:<br>
&gt; How about a redmine issue - this thread&#39;s not about GROMACS<br>
&gt; development, per se ;-)<br>
<br>
Sorry about that =D<br>
<br>
Redmine issue <a href="http://redmine.gromacs.org/issues/1607" target="_blank">http://redmine.gromacs.org/issues/1607</a><br>
With relevant tpr file attached<br>
&gt;<br>
&gt; Mark<br>
&gt;<br>
&gt; On Sun, Sep 28, 2014 at 3:18 PM, Alexey Shvetsov<br>
&gt; &lt;<a href="mailto:alexxy@omrb.pnpi.spb.ru">alexxy@omrb.pnpi.spb.ru</a>&gt; wrote:<br>
&gt;<br>
&gt;&gt; Hi Berk!<br>
&gt;&gt;<br>
&gt;&gt; Its not a cut and paste error, also there are no pdb dumps.<br>
&gt;&gt; Also I see this error before with other systems.<br>
&gt;&gt;<br>
&gt;&gt; I can provide tpr file for that system<br>
&gt;&gt;<br>
&gt;&gt; <a href="https://biod.pnpi.spb.ru/~alexxy/gmx/psa_pep_ctrl.md_npt.tpr" target="_blank">https://biod.pnpi.spb.ru/~alexxy/gmx/psa_pep_ctrl.md_npt.tpr</a> [1]<br>
&gt;&gt;<br>
&gt;&gt; Berk Hess писал 28-09-2014 16:37:<br>
&gt;&gt;<br>
&gt;&gt; Hi,<br>
&gt;&gt;<br>
&gt;&gt; I assume that your old and be coordinates being identical is correct<br>
&gt;&gt; and not a cut-and-paste error.<br>
&gt;&gt; This seems a bit strange or do you freeze part of the system?<br>
&gt;&gt; The only things moving here are then the domain boundaries and I<br>
&gt;&gt; don&#39;t see an issue there, since they only moved a little.<br>
&gt;&gt;<br>
&gt;&gt; Do you have any more output besides the error message? PDB dump files<br>
&gt;&gt; maybe?<br>
&gt;&gt;<br>
&gt;&gt; Cheers,<br>
&gt;&gt;<br>
&gt;&gt; Berk<br>
&gt;&gt;<br>
&gt;&gt; On 09/28/2014 02:22 PM, Alexey Shvetsov wrote:<br>
&gt;&gt; Hi,<br>
&gt;&gt;<br>
&gt;&gt; just wanna add that this error seems to be reproducable even on<br>
&gt;&gt; single node. Also i get same error for gpu runs.<br>
&gt;&gt; However i dont see it in large systems (800k+ atoms) running on large<br>
&gt;&gt; number of cpus (512+)<br>
&gt;&gt;<br>
&gt;&gt; Alexey Shvetsov писал 28-09-2014 13:44:<br>
&gt;&gt; Hi,<br>
&gt;&gt;<br>
&gt;&gt; DD grid is<br>
&gt;&gt;<br>
&gt;&gt; Domain decomposition grid 4 x 1 x 1, separate PME ranks 0 PME domain<br>
&gt;&gt; decomposition: 4 x 1 x 1<br>
&gt;&gt;<br>
&gt;&gt; for 4 node setup<br>
&gt;&gt;<br>
&gt;&gt; and<br>
&gt;&gt;<br>
&gt;&gt; Domain decomposition grid 4 x 2 x 1, separate PME ranks 0 PME domain<br>
&gt;&gt; decomposition: 4 x 2 x 1<br>
&gt;&gt;<br>
&gt;&gt; for 8 node setup<br>
&gt;&gt;<br>
&gt;&gt; It&#39;s reproducable with 5.0 release and latest git master. I try to<br>
&gt;&gt; check if its reproducable with 1 node. Also i can provide tpr file<br>
&gt;&gt; for this system<br>
&gt;&gt;<br>
&gt;&gt; Mark Abraham писал 28-09-2014 13:28:<br>
&gt;&gt; Hi,<br>
&gt;&gt;<br>
&gt;&gt; It&#39;s hard to say on that information. There were some issues fixed in<br>
&gt;&gt; the lead-up to GROMACS 5 with DD not always working with 2 domains in<br>
&gt;&gt; a direction, but that&#39;s a pure guess. I&#39;d assume you can reproduce<br>
&gt;&gt; this with release-5-0 branch. Do you observe it with a single domain?<br>
&gt;&gt; If not, then it&#39;s surely a bug (and should be submitted to redmine).<br>
&gt;&gt;<br>
&gt;&gt; Mark<br>
&gt;&gt;<br>
&gt;&gt; On Sun, Sep 28, 2014 at 11:18 AM, Alexey Shvetsov<br>
&gt;&gt; &lt;<a href="mailto:alexxy@omrb.pnpi.spb.ru">alexxy@omrb.pnpi.spb.ru</a>&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt; Hi all!<br>
&gt;&gt;<br>
&gt;&gt; I&#39;m doing some tests with small peptide and constantly getting this<br>
&gt;&gt; error.<br>
&gt;&gt; I get it with few systems.<br>
&gt;&gt;<br>
&gt;&gt; Systems sizes are around 10k or 20k<br>
&gt;&gt; I run it on 4 or 8 old nodes each with two xeon 54xx series<br>
&gt;&gt;<br>
&gt;&gt; starting mdrun &#39;2ZCH_3 in water&#39;<br>
&gt;&gt; 50000000 steps, 100000.0 ps (continuing from step 1881000, 3762.0<br>
&gt;&gt; ps).<br>
&gt;&gt;<br>
&gt;&gt; Step 13514000:<br>
&gt;&gt; The charge group starting at atom 6608 moved more than the distance<br>
&gt;&gt; allowed by the domain decomposition (1.112924) in direction X<br>
&gt;&gt; distance out of cell -1.193103 Old coordinates: 5.467 0.298 3.636 New<br>
&gt;&gt; coordinates: 5.467 0.298 3.636 Old cell boundaries in direction X:<br>
&gt;&gt; 4.037 5.382 New cell boundaries in direction X: 4.089 5.452<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt; ----------------------------------------------------------------------<br>
&gt; ----<br>
&gt;&gt; MPI_ABORT was invoked on rank 3 in communicator MPI_COMM_WORLD with<br>
&gt;&gt; errorcode 1.<br>
&gt;&gt;<br>
&gt;&gt; NOTE: invoking MPI_ABORT causes Open MPI to kill all MPI processes.<br>
&gt;&gt; You may or may not see output from other processes, depending on<br>
&gt;&gt; exactly when Open MPI kills them.<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt; ----------------------------------------------------------------------<br>
&gt; ----<br>
&gt;&gt;<br>
&gt;&gt; -------------------------------------------------------<br>
&gt;&gt; Program mdrun_mpi, VERSION 5.1-dev-20140922-20c00a9-dirty-unknown<br>
&gt;&gt; Source code file:<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt; /var/tmp/alexxy/portage/sci-chemistry/gromacs-9999/work/gromacs-9999/s<br>
&gt; rc/gromacs/mdlib/domdec.cpp,<br>
&gt;&gt; line: 4388<br>
&gt;&gt;<br>
&gt;&gt; Fatal error:<br>
&gt;&gt; A charge group moved too far between two domain decomposition steps<br>
&gt;&gt; This usually means that your system is not well equilibrated For more<br>
&gt;&gt; information and tips for troubleshooting, please check the GROMACS<br>
&gt;&gt; website at <a href="http://www.gromacs.org/Documentation/Errors" target="_blank">http://www.gromacs.org/Documentation/Errors</a> [2] [1]<br>
&gt;&gt; -------------------------------------------------------<br>
&gt;&gt;<br>
&gt;&gt; -- Best Regards,<br>
&gt;&gt; Alexey &#39;Alexxy&#39; Shvetsov, PhD<br>
&gt;&gt; Department of Molecular and Radiation Biophysics FSBI Petersburg<br>
&gt;&gt; Nuclear Physics Institute, NRC Kurchatov Institute, Leningrad region,<br>
&gt;&gt; Gatchina, Russia mailto:<a href="mailto:alexxyum@gmail.com">alexxyum@gmail.com</a><br>
&gt;&gt; mailto:<a href="mailto:alexxy@omrb.pnpi.spb.ru">alexxy@omrb.pnpi.spb.ru</a><br>
&gt;&gt; -- Gromacs Developers mailing list<br>
&gt;&gt;<br>
&gt;&gt; * Please search the archive at<br>
&gt;&gt; <a href="http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List" target="_blank">http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List</a><br>
&gt;&gt; [3] [2]<br>
&gt;&gt; before posting!<br>
&gt;&gt;<br>
&gt;&gt; * Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" target="_blank">http://www.gromacs.org/Support/Mailing_Lists</a> [4]<br>
&gt;&gt; [3]<br>
&gt;&gt;<br>
&gt;&gt; * For (un)subscribe requests visit<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt; <a href="https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developer" target="_blank">https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developer</a><br>
&gt; s<br>
&gt;&gt; [5]<br>
&gt;&gt; [4] or send a mail to <a href="mailto:gmx-developers-request@gromacs.org">gmx-developers-request@gromacs.org</a>.<br>
&gt;&gt;<br>
&gt;&gt; Links:<br>
&gt;&gt; ------<br>
&gt;&gt; [1] <a href="http://www.gromacs.org/Documentation/Errors" target="_blank">http://www.gromacs.org/Documentation/Errors</a> [2] [2]<br>
&gt;&gt; <a href="http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List" target="_blank">http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List</a> [3]<br>
&gt;&gt; [3] <a href="http://www.gromacs.org/Support/Mailing_Lists" target="_blank">http://www.gromacs.org/Support/Mailing_Lists</a> [4] [4]<br>
&gt;&gt;<br>
&gt; <a href="https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developer" target="_blank">https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developer</a><br>
&gt; s<br>
&gt;&gt; [5]<br>
&gt;<br>
&gt;  -- Best Regards,<br>
&gt;  Alexey &#39;Alexxy&#39; Shvetsov, PhD<br>
&gt;  Department of Molecular and Radiation Biophysics  FSBI Petersburg<br>
&gt; Nuclear Physics Institute, NRC Kurchatov Institute,  Leningrad region,<br>
&gt; Gatchina, Russia  mailto:<a href="mailto:alexxyum@gmail.com">alexxyum@gmail.com</a><br>
&gt; mailto:<a href="mailto:alexxy@omrb.pnpi.spb.ru">alexxy@omrb.pnpi.spb.ru</a><br>
&gt;<br>
&gt;  --<br>
&gt;  Best Regards,<br>
&gt;  Alexey &#39;Alexxy&#39; Shvetsov, PhD<br>
&gt;  Department of Molecular and Radiation Biophysics  FSBI Petersburg<br>
&gt; Nuclear Physics Institute, NRC Kurchatov Institute,  Leningrad region,<br>
&gt; Gatchina, Russia  mailto:<a href="mailto:alexxyum@gmail.com">alexxyum@gmail.com</a><br>
&gt; mailto:<a href="mailto:alexxy@omrb.pnpi.spb.ru">alexxy@omrb.pnpi.spb.ru</a><br>
&gt;  --<br>
&gt;  Gromacs Developers mailing list<br>
&gt;<br>
&gt;  * Please search the archive at<br>
&gt; <a href="http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List" target="_blank">http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List</a> [3]<br>
&gt; before posting!<br>
&gt;<br>
&gt;  * Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" target="_blank">http://www.gromacs.org/Support/Mailing_Lists</a> [4]<br>
&gt;<br>
&gt;  * For (un)subscribe requests visit<br>
&gt;<br>
&gt; <a href="https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developer" target="_blank">https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developer</a><br>
&gt; s [5] or send a mail to <a href="mailto:gmx-developers-request@gromacs.org">gmx-developers-request@gromacs.org</a>.<br>
&gt;<br>
&gt;<br>
&gt; Links:<br>
&gt; ------<br>
&gt; [1] <a href="https://biod.pnpi.spb.ru/~alexxy/gmx/psa_pep_ctrl.md_npt.tpr" target="_blank">https://biod.pnpi.spb.ru/~alexxy/gmx/psa_pep_ctrl.md_npt.tpr</a><br>
&gt; [2] <a href="http://www.gromacs.org/Documentation/Errors" target="_blank">http://www.gromacs.org/Documentation/Errors</a><br>
&gt; [3] <a href="http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List" target="_blank">http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List</a><br>
&gt; [4] <a href="http://www.gromacs.org/Support/Mailing_Lists" target="_blank">http://www.gromacs.org/Support/Mailing_Lists</a><br>
&gt; [5]<br>
&gt; <a href="https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developer" target="_blank">https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developer</a><br>
&gt; s<br>
<br>
--<br>
Best Regards,<br>
Alexey &#39;Alexxy&#39; Shvetsov, PhD<br>
Department of Molecular and Radiation Biophysics FSBI Petersburg Nuclear Physics Institute, NRC Kurchatov Institute, Leningrad region, Gatchina, Russia mailto:<a href="mailto:alexxyum@gmail.com">alexxyum@gmail.com</a> mailto:<a href="mailto:alexxy@omrb.pnpi.spb.ru">alexxy@omrb.pnpi.spb.ru</a><br>
--<br>
Gromacs Developers mailing list<br>
<br>
* Please search the archive at <a href="http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List" target="_blank">http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List</a> before posting!<br>
<br>
* Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" target="_blank">http://www.gromacs.org/Support/Mailing_Lists</a><br>
<br>
* For (un)subscribe requests visit<br>
<a href="https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers" target="_blank">https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers</a> or send a mail to <a href="mailto:gmx-developers-request@gromacs.org">gmx-developers-request@gromacs.org</a>.<br>
<span class="HOEnZb"><font color="#888888"><br>
--<br>
Gromacs Developers mailing list<br>
<br>
* Please search the archive at <a href="http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List" target="_blank">http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List</a> before posting!<br>
<br>
* Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" target="_blank">http://www.gromacs.org/Support/Mailing_Lists</a><br>
<br>
* For (un)subscribe requests visit<br>
<a href="https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers" target="_blank">https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers</a> or send a mail to <a href="mailto:gmx-developers-request@gromacs.org">gmx-developers-request@gromacs.org</a>.</font></span></blockquote></div><br><br clear="all"><div><br></div>-- <br>ORNL/UT Center for Molecular Biophysics <a href="http://cmb.ornl.gov">cmb.ornl.gov</a><br>865-241-1537, ORNL PO BOX 2008 MS6309
</div>