<br><br>----- Original Message -----<br>From: Sebastian Breuers &lt;breuerss@uni-koeln.de&gt;<br>Date: Tuesday, September 7, 2010 0:42<br>Subject: Re: [gmx-users] g_covar &amp; g_anaeig problems<br>To: gmx-users@gromacs.org<br><br>&gt; Hey everyone,<br>&gt; <br>&gt; searching the list for the answer to a g_covar problem I've <br>&gt; found this post of Arne who describes the very same problem that <br>&gt; I encounter.<br>&gt; <br>&gt; I'm observing this problem on a linux cluster with 32GB memory <br>&gt; on each node. The g_covar_d application was compiled in double <br>&gt; precision with an intel compiler and works fine up to a number <br>&gt; of atoms of around 15408. In tests I could find out that above <br>&gt; this number +/- 48 atoms I receive the following error output:<br>&gt; <br>&gt; <br>&gt; Calculating the average structure ...<br>&gt; Last frame&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 50 <br>&gt; time 5000.000<br>&gt; <br>&gt; Constructing covariance matrix (46368x46368) ...<br>&gt; Reading frame&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0 <br>&gt; time&nbsp;&nbsp;&nbsp; 0.000&nbsp;&nbsp; Segmentation fault<br>&gt; <br>&gt; Meaning a matrix over around 46224x46224 elements starts to <br>&gt; generate this problem.<br>&gt; <br>&gt; Did anyone encounter the same problem or does anyone has a hint <br>&gt; to solve this issue?<br><br>Get more memory or use fewer atoms :-) The memory needs and run time will scale at least as high as the square of the number of atoms. Probably you can ignore at least your hydrogen atoms...<br><br>Mark