<div dir="ltr">Hi,<div><br></div><div>It&#39;s hard to say on that information. There were some issues fixed in the lead-up to GROMACS 5 with DD not always working with 2 domains in a direction, but that&#39;s a pure guess. I&#39;d assume you can reproduce this with release-5-0 branch. Do you observe it with a single domain? If not, then it&#39;s surely a bug (and should be submitted to redmine).</div><div><br></div><div>Mark</div></div><div class="gmail_extra"><br><div class="gmail_quote">On Sun, Sep 28, 2014 at 11:18 AM, Alexey Shvetsov <span dir="ltr">&lt;<a href="mailto:alexxy@omrb.pnpi.spb.ru" target="_blank">alexxy@omrb.pnpi.spb.ru</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi all!<br>
<br>
I&#39;m doing some tests with small peptide and constantly getting this error.<br>
I get it with few systems.<br>
<br>
Systems sizes are around 10k or 20k<br>
I run it on 4 or 8 old nodes each with two xeon 54xx series<br>
<br>
starting mdrun &#39;2ZCH_3 in water&#39;<br>
50000000 steps, 100000.0 ps (continuing from step 1881000,   3762.0 ps).<br>
<br>
Step 13514000:<br>
The charge group starting at atom 6608 moved more than the distance allowed by the domain decomposition (1.112924) in direction X<br>
distance out of cell -1.193103<br>
Old coordinates:    5.467    0.298    3.636<br>
New coordinates:    5.467    0.298    3.636<br>
Old cell boundaries in direction X:    4.037    5.382<br>
New cell boundaries in direction X:    4.089    5.452<br>
------------------------------<u></u>------------------------------<u></u>--------------<br>
MPI_ABORT was invoked on rank 3 in communicator MPI_COMM_WORLD<br>
with errorcode 1.<br>
<br>
NOTE: invoking MPI_ABORT causes Open MPI to kill all MPI processes.<br>
You may or may not see output from other processes, depending on<br>
exactly when Open MPI kills them.<br>
------------------------------<u></u>------------------------------<u></u>--------------<br>
<br>
------------------------------<u></u>-------------------------<br>
Program mdrun_mpi, VERSION 5.1-dev-20140922-20c00a9-<u></u>dirty-unknown<br>
Source code file: /var/tmp/alexxy/portage/sci-<u></u>chemistry/gromacs-9999/work/<u></u>gromacs-9999/src/gromacs/<u></u>mdlib/domdec.cpp, line: 4388<br>
<br>
Fatal error:<br>
A charge group moved too far between two domain decomposition steps<br>
This usually means that your system is not well equilibrated<br>
For more information and tips for troubleshooting, please check the GROMACS<br>
website at <a href="http://www.gromacs.org/Documentation/Errors" target="_blank">http://www.gromacs.org/<u></u>Documentation/Errors</a><br>
------------------------------<u></u>-------------------------<span class="HOEnZb"><font color="#888888"><br>
<br>
<br>
-- <br>
Best Regards,<br>
Alexey &#39;Alexxy&#39; Shvetsov, PhD<br>
Department of Molecular and Radiation Biophysics<br>
FSBI Petersburg Nuclear Physics Institute, NRC Kurchatov Institute,<br>
Leningrad region, Gatchina, Russia<br>
mailto:<a href="mailto:alexxyum@gmail.com" target="_blank">alexxyum@gmail.com</a><br>
mailto:<a href="mailto:alexxy@omrb.pnpi.spb.ru" target="_blank">alexxy@omrb.pnpi.spb.ru</a><br>
-- <br>
Gromacs Developers mailing list<br>
<br>
* Please search the archive at <a href="http://www.gromacs.org/Support/Mailing_Lists/GMX-developers_List" target="_blank">http://www.gromacs.org/<u></u>Support/Mailing_Lists/GMX-<u></u>developers_List</a> before posting!<br>
<br>
* Can&#39;t post? Read <a href="http://www.gromacs.org/Support/Mailing_Lists" target="_blank">http://www.gromacs.org/<u></u>Support/Mailing_Lists</a><br>
<br>
* For (un)subscribe requests visit<br>
<a href="https://maillist.sys.kth.se/mailman/listinfo/gromacs.org_gmx-developers" target="_blank">https://maillist.sys.kth.se/<u></u>mailman/listinfo/gromacs.org_<u></u>gmx-developers</a> or send a mail to <a href="mailto:gmx-developers-request@gromacs.org" target="_blank">gmx-developers-request@<u></u>gromacs.org</a>.<br>
</font></span></blockquote></div><br></div>