<html>
  <head>
    <meta content="text/html; charset=ISO-8859-1"
      http-equiv="Content-Type">
  </head>
  <body bgcolor="#FFFFFF" text="#000000">
    On 21/02/2012 8:11 AM, Floris Buelens wrote:
    <blockquote
      cite="mid:1329772273.38866.YahooMailNeo@web122417.mail.ne1.yahoo.com"
      type="cite">
      <div style="color: rgb(0, 0, 0); background-color: rgb(255, 255,
        255); font-family: times new roman,new york,times,serif;
        font-size: 12pt;">
        <div><span>Poor scaling with MPI on many-core machines can also
            be due uneven job distributions across cores or jobs being
            wastefully swapped between cores. You might be able to fix
            this with some esoteric configuration options of mpirun
            (--bind-to-core worked for me with openMPI), but the surest
            option is to switch to gromacs 4.5 and run using
            thread-level parallelisation, bypassing MPI entirely.</span></div>
      </div>
    </blockquote>
    <br>
    That can avoid problems arising from MPI performance, but not those
    arising from PP-vs-PME load balance, or intra-PP load balance. The
    end of the .log files will suggest if these latter effects are
    strong contributors. Carsten's suggested solution is one good one.<br>
    <br>
    Mark<br>
    <br>
    <blockquote
      cite="mid:1329772273.38866.YahooMailNeo@web122417.mail.ne1.yahoo.com"
      type="cite">
      <div style="color:#000; background-color:#fff; font-family:times
        new roman, new york, times, serif;font-size:12pt">
        <div><br>
        </div>
        <div><br>
        </div>
        <div style="font-size: 12pt; font-family: 'times new roman',
          'new york', times, serif; ">
          <div style="font-size: 12pt; font-family: 'times new roman',
            'new york', times, serif; ">
            <div dir="ltr"> <font face="Arial" size="2">
                <hr size="1"> <b><span style="font-weight:bold;">From:</span></b>
                Sara Campos <a class="moz-txt-link-rfc2396E" href="mailto:srrcampos@gmail.com">&lt;srrcampos@gmail.com&gt;</a><br>
                <b><span style="font-weight: bold;">To:</span></b>
                <a class="moz-txt-link-abbreviated" href="mailto:gmx-users@gromacs.org">gmx-users@gromacs.org</a> <br>
                <b><span style="font-weight: bold;">Sent:</span></b>
                Monday, 20 February 2012, 17:12<br>
                <b><span style="font-weight: bold;">Subject:</span></b>
                [gmx-users] Scaling/performance on Gromacs 4<br>
              </font> </div>
            <br>
            <div id="yiv704499279"><span style="font-family: 'courier
                new', monospace; ">Dear GROMACS users</span><br>
              <br style="font-family: 'courier new', monospace; ">
              <span style="font-family: 'courier new', monospace; ">My
                group has had access to a quad processor, 64 core
                machine (4 x Opteron 6274 @ 2.2 GHz with 16 cores)<br>
                and I made some</span>
              <span style="font-family: 'courier new', monospace; ">performance
                tests, using the following specifications:</span><br
                style="font-family: 'courier new', monospace; ">
              <br style="font-family: 'courier new', monospace; ">
              <span style="font-family: 'courier new', monospace; ">System
                size: 299787 atoms</span><br style="font-family:
                'courier new', monospace; ">
              <span style="font-family: 'courier new', monospace; ">Number
                of MD steps: 1500</span><br style="font-family: 'courier
                new', monospace; ">
              <span style="font-family: 'courier new', monospace; ">Electrostatics
                treatment: PME</span><br style="font-family: 'courier
                new', monospace; ">
              <span style="font-family: 'courier new', monospace; ">Gromacs
                version: 4.0.4</span><br style="font-family: 'courier
                new', monospace; ">
              <span style="font-family: 'courier new', monospace; ">MPI:
                LAM</span><br style="font-family: 'courier new',
                monospace; ">
              <span style="font-family: 'courier new', monospace; ">Command
                ran:&nbsp;mpirun -ssi rpi tcp C mdrun_mpi ...</span><br
                style="font-family: 'courier new', monospace; ">
              <br style="font-family: 'courier new', monospace; ">
              <span style="font-family: 'courier new', monospace; ">#CPUS
                &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Time (s) &nbsp; Steps/s</span><br
                style="font-family: 'courier new', monospace; ">
              <span style="font-family: 'courier new', monospace; ">64 &nbsp;
                &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 195.000 &nbsp; &nbsp; 7.69</span><br style="font-family:
                'courier new', monospace; ">
              <span style="font-family: 'courier new', monospace; ">32 &nbsp;
                &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 192.000 &nbsp; &nbsp; 7.81</span><br style="font-family:
                'courier new', monospace; ">
              <span style="font-family: 'courier new', monospace; ">16 &nbsp;
                &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 275.000 &nbsp; &nbsp; 5.45</span><br style="font-family:
                'courier new', monospace; ">
              <span style="font-family: 'courier new', monospace; ">8 &nbsp;
                &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;381.000 &nbsp; &nbsp; 3.94</span><br
                style="font-family: 'courier new', monospace; ">
              <span style="font-family: 'courier new', monospace; ">4 &nbsp;
                &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;751.000 &nbsp; &nbsp; 2.00</span><br
                style="font-family: 'courier new', monospace; ">
              <span style="font-family: 'courier new', monospace; ">2 &nbsp;
                &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 1001.000 &nbsp; &nbsp; 1.50</span><br
                style="font-family: 'courier new', monospace; ">
              <span style="font-family: 'courier new', monospace; ">1 &nbsp;
                &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 2352.000 &nbsp; &nbsp; 0.64</span><br
                style="font-family: 'courier new', monospace; ">
              <br style="font-family: 'courier new', monospace; ">
              <span style="font-family: 'courier new', monospace; ">The
                scaling is not good. But the weirdest is the 64
                processors performing</span><br style="font-family:
                'courier new', monospace; ">
              <span style="font-family: 'courier new', monospace; ">the
                same as 32. I see the plots from Dr. Hess on the GROMACS
                4 paper on JCTC</span><br style="font-family: 'courier
                new', monospace; ">
              <span style="font-family: 'courier new', monospace; ">and
                I&nbsp;do not understand why this is happening. Can anyone
                help?</span><br style="font-family: 'courier new',
                monospace; ">
              <br style="font-family: 'courier new', monospace; ">
              <span style="font-family: 'courier new', monospace; ">Thanks
                in advance,</span><br style="font-family: 'courier new',
                monospace; ">
              <span style="font-family: 'courier new', monospace; ">Sara</span><br>
            </div>
            <br>
            -- <br>
            gmx-users mailing list&nbsp; &nbsp; <a moz-do-not-send="true"
              ymailto="mailto:gmx-users@gromacs.org"
              href="mailto:gmx-users@gromacs.org">gmx-users@gromacs.org</a><br>
            <a moz-do-not-send="true"
              href="http://lists.gromacs.org/mailman/listinfo/gmx-users"
              target="_blank">http://lists.gromacs.org/mailman/listinfo/gmx-users</a><br>
            Please search the archive at <a moz-do-not-send="true"
              href="http://www.gromacs.org/Support/Mailing_Lists/Search"
              target="_blank">http://www.gromacs.org/Support/Mailing_Lists/Search</a>
            before posting!<br>
            Please don't post (un)subscribe requests to the list. Use
            the <br>
            www interface or send it to <a moz-do-not-send="true"
              ymailto="mailto:gmx-users-request@gromacs.org"
              href="mailto:gmx-users-request@gromacs.org">gmx-users-request@gromacs.org</a>.<br>
            Can't post? Read <a moz-do-not-send="true"
              href="http://www.gromacs.org/Support/Mailing_Lists"
              target="_blank">http://www.gromacs.org/Support/Mailing_Lists</a><br>
            <br>
          </div>
        </div>
      </div>
      <br>
      <fieldset class="mimeAttachmentHeader"></fieldset>
      <br>
    </blockquote>
    <br>
  </body>
</html>