<div dir="ltr">How about a redmine issue - this thread&#39;s not about GROMACS development, per se ;-)<div><br></div><div>Mark</div></div><div class="gmail_extra"><br><div class="gmail_quote">On Sun, Sep 28, 2014 at 3:18 PM, Alexey Shvetsov <span dir="ltr">&lt;<a href="mailto:alexxy@omrb.pnpi.spb.ru" target="_blank">alexxy@omrb.pnpi.spb.ru</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi Berk!<br>
<br>
Its not a cut and paste error, also there are no pdb dumps.<br>
Also I see this error before with other systems.<br>
<br>
I can provide tpr file for that system<br>
<br>
<br>
<a href="https://biod.pnpi.spb.ru/~alexxy/gmx/psa_pep_ctrl.md_npt.tpr" target="_blank">https://biod.pnpi.spb.ru/~<u></u>alexxy/gmx/psa_pep_ctrl.md_<u></u>npt.tpr</a><br>
<br>
<br>
Berk Hess писал 28-09-2014 16:37:<div class="HOEnZb"><div class="h5"><br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Hi,<br>
<br>
I assume that your old and be coordinates being identical is correct<br>
and not a cut-and-paste error.<br>
This seems a bit strange or do you freeze part of the system?<br>
The only things moving here are then the domain boundaries and I don&#39;t<br>
see an issue there, since they only moved a little.<br>
<br>
Do you have any more output besides the error message? PDB dump files maybe?<br>
<br>
Cheers,<br>
<br>
Berk<br>
<br>
On 09/28/2014 02:22 PM, Alexey Shvetsov wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Hi,<br>
<br>
just wanna add that this error seems to be reproducable even on single node. Also i get same error for gpu runs.<br>
However i dont see it in large systems (800k+ atoms) running on large number of cpus (512+)<br>
<br>
Alexey Shvetsov писал 28-09-2014 13:44:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Hi,<br>
<br>
DD grid is<br>
<br>
Domain decomposition grid 4 x 1 x 1, separate PME ranks 0<br>
PME domain decomposition: 4 x 1 x 1<br>
<br>
for 4 node setup<br>
<br>
and<br>
<br>
Domain decomposition grid 4 x 2 x 1, separate PME ranks 0<br>
PME domain decomposition: 4 x 2 x 1<br>
<br>
for 8 node setup<br>
<br>
It&#39;s reproducable with 5.0 release and latest git master. I try to<br>
check if its reproducable with 1 node. Also i can provide tpr file for<br>
this system<br>
<br>
Mark Abraham писал 28-09-2014 13:28:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Hi,<br>
<br>
It&#39;s hard to say on that information. There were some issues fixed in<br>
the lead-up to GROMACS 5 with DD not always working with 2 domains in<br>
a direction, but that&#39;s a pure guess. I&#39;d assume you can reproduce<br>
this with release-5-0 branch. Do you observe it with a single domain?<br>
If not, then it&#39;s surely a bug (and should be submitted to redmine).<br>
<br>
Mark<br>
<br>
On Sun, Sep 28, 2014 at 11:18 AM, Alexey Shvetsov<br>
&lt;<a href="mailto:alexxy@omrb.pnpi.spb.ru" target="_blank">alexxy@omrb.pnpi.spb.ru</a>&gt; wrote:<br>
<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Hi all!<br>
<br>
I&#39;m doing some tests with small peptide and constantly getting this<br>
error.<br>
I get it with few systems.<br>
<br>
Systems sizes are around 10k or 20k<br>
I run it on 4 or 8 old nodes each with two xeon 54xx series<br>
<br>
starting mdrun &#39;2ZCH_3 in water&#39;<br>
50000000 steps, 100000.0 ps (continuing from step 1881000, 3762.0<br>
ps).<br>
<br>
Step 13514000:<br>
The charge group starting at atom 6608 moved more than the distance<br>
allowed by the domain decomposition (1.112924) in direction X<br>
distance out of cell -1.193103<br>
Old coordinates: 5.467 0.298 3.636<br>
New coordinates: 5.467 0.298 3.636<br>
Old cell boundaries in direction X: 4.037 5.382<br>
New cell boundaries in direction X: 4.089 5.452<br>
<br>
</blockquote>
------------------------------<u></u>------------------------------<u></u>--------------<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
MPI_ABORT was invoked on rank 3 in communicator MPI_COMM_WORLD<br>
with errorcode 1.<br>
<br>
NOTE: invoking MPI_ABORT causes Open MPI to kill all MPI processes.<br>
You may or may not see output from other processes, depending on<br>
exactly when Open MPI kills them.<br>
<br>
</blockquote>
------------------------------<u></u>------------------------------<u></u>--------------<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
------------------------------<u></u>-------------------------<br>
Program mdrun_mpi, VERSION 5.1-dev-20140922-20c00a9-<u></u>dirty-unknown<br>
Source code file:<br>
<br>
</blockquote>
/var/tmp/alexxy/portage/sci-<u></u>chemistry/gromacs-9999/work/<u></u>gromacs-9999/src/gromacs/<u></u>mdlib/domdec.cpp,<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
line: 4388<br>
<br>
Fatal error:<br>
A charge group moved too far between two domain decomposition steps<br>
This usually means that your system is not well equilibrated<br>
For more information and tips for troubleshooting, please check the<br>
GROMACS<br>
website at <a href="http://www.gromacs.org/Documentation/Errors" target="_blank">http://www.gromacs.org/<u></u>Documentation/Errors</a> [1]<br>
------------------------------<u></u>-------------------------<br>
<br>
-- Best Regards,<br>
Alexey &#39;Alexxy&#39; Shvetsov, PhD<br>
Department of Molecular and Radiation Biophysics<br>
FSBI Petersburg Nuclear Physics Institute, NRC Kurchatov Institute,<br>
Leningrad region, Gatchina, Russia<br>
mailto:<a href="mailto:alexxyum@gmail.com" target="_blank">alexxyum@gmail.com</a><br>
mailto:<a href="mailto:alexxy@omrb.pnpi.spb.ru" target="_blank">alexxy@omrb.pnpi.spb.ru</a><br>
-- Gromacs Developers mailing list<br>
<br>
* Please search the archive at<br>
<a href="http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List" target="_blank">http://www.gromacs.org/<u></u>Support/Mailing_Lists/GMX-<u></u>developers_List</a> [2]<br>
before posting!<br>
<br>
* Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" target="_blank">http://www.gromacs.org/<u></u>Support/Mailing_Lists</a> [3]<br>
<br>
* For (un)subscribe requests visit<br>
<br>
</blockquote>
<a href="https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers" target="_blank">https://maillist.sys.kth.se/<u></u>mailman/listinfo/gromacs.org_<u></u>gmx-developers</a><br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
[4] or send a mail to <a href="mailto:gmx-developers-request@gromacs.org" target="_blank">gmx-developers-request@<u></u>gromacs.org</a>.<br>
</blockquote>
<br>
<br>
<br>
Links:<br>
------<br>
[1] <a href="http://www.gromacs.org/Documentation/Errors" target="_blank">http://www.gromacs.org/<u></u>Documentation/Errors</a><br>
[2] <a href="http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List" target="_blank">http://www.gromacs.org/<u></u>Support/Mailing_Lists/GMX-<u></u>developers_List</a><br>
[3] <a href="http://www.gromacs.org/Support/Mailing_Lists" target="_blank">http://www.gromacs.org/<u></u>Support/Mailing_Lists</a><br>
[4] <a href="https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers" target="_blank">https://maillist.sys.kth.se/<u></u>mailman/listinfo/gromacs.org_<u></u>gmx-developers</a><br>
</blockquote>
<br>
-- Best Regards,<br>
Alexey &#39;Alexxy&#39; Shvetsov, PhD<br>
Department of Molecular and Radiation Biophysics<br>
FSBI Petersburg Nuclear Physics Institute, NRC Kurchatov Institute,<br>
Leningrad region, Gatchina, Russia<br>
mailto:<a href="mailto:alexxyum@gmail.com" target="_blank">alexxyum@gmail.com</a><br>
mailto:<a href="mailto:alexxy@omrb.pnpi.spb.ru" target="_blank">alexxy@omrb.pnpi.spb.ru</a><br>
</blockquote>
<br>
</blockquote></blockquote>
<br>
-- <br>
Best Regards,<br>
Alexey &#39;Alexxy&#39; Shvetsov, PhD<br>
Department of Molecular and Radiation Biophysics<br>
FSBI Petersburg Nuclear Physics Institute, NRC Kurchatov Institute,<br>
Leningrad region, Gatchina, Russia<br>
mailto:<a href="mailto:alexxyum@gmail.com" target="_blank">alexxyum@gmail.com</a><br>
mailto:<a href="mailto:alexxy@omrb.pnpi.spb.ru" target="_blank">alexxy@omrb.pnpi.spb.ru</a><br>
-- <br>
Gromacs Developers mailing list<br>
<br>
* Please search the archive at <a href="http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List" target="_blank">http://www.gromacs.org/<u></u>Support/Mailing_Lists/GMX-<u></u>developers_List</a> before posting!<br>
<br>
* Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" target="_blank">http://www.gromacs.org/<u></u>Support/Mailing_Lists</a><br>
<br>
* For (un)subscribe requests visit<br>
<a href="https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers" target="_blank">https://maillist.sys.kth.se/<u></u>mailman/listinfo/gromacs.org_<u></u>gmx-developers</a> or send a mail to <a href="mailto:gmx-developers-request@gromacs.org" target="_blank">gmx-developers-request@<u></u>gromacs.org</a>.</div></div></blockquote></div><br></div>