<html><head></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space; "><br><div><div>On Aug 31, 2010, at 04:50 , xuji wrote:</div><br class="Apple-interchange-newline"><blockquote type="cite"><span class="Apple-style-span" style="border-collapse: separate; font-family: Helvetica; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: normal; orphans: 2; text-indent: 0px; text-transform: none; white-space: normal; widows: 2; word-spacing: 0px; -webkit-border-horizontal-spacing: 0px; -webkit-border-vertical-spacing: 0px; -webkit-text-decorations-in-effect: none; -webkit-text-size-adjust: auto; -webkit-text-stroke-width: 0px; font-size: medium; "><div style="margin-top: 10px; margin-right: 10px; margin-bottom: 10px; margin-left: 10px; font-family: verdana; font-size: 10pt; "><div><font color="#000080" size="2" face="Verdana"><div>Hi&nbsp;all:</div><div>&nbsp;</div><div>It&nbsp;is&nbsp;a&nbsp;very&nbsp;good&nbsp;news&nbsp;that&nbsp;Gromacs-4.5&nbsp;is&nbsp;coming&nbsp;soon!</div><div>&nbsp;</div><div></div><div>I&nbsp;have&nbsp;two&nbsp;problems&nbsp;not&nbsp;very&nbsp;clearly.</div><div></div><div>First,&nbsp;Gromacs-4.5&nbsp;can&nbsp;use&nbsp;GPU&nbsp;to&nbsp;accelerate&nbsp;simulations.&nbsp;But&nbsp;in&nbsp;</div><div>the&nbsp;"Limitations",&nbsp;it's&nbsp;said&nbsp;that&nbsp;"Multiple&nbsp;GPU&nbsp;cards&nbsp;are&nbsp;not&nbsp;supported".</div><div>So&nbsp;can't&nbsp;I&nbsp;accelerate&nbsp;the&nbsp;simulations&nbsp;with&nbsp;parallel&nbsp;mdrun?&nbsp;</div></font></div></div></span></blockquote><div>GPUs are inherently parallel so a single GPU-accelerated mdrun is 'parallel' by its very nature. This restriction reflects a restriction in GPU hardware: multiple GPU cards don't share memory, so supporting them would require an entirely new set of algorithms beyond what has already been done to support single GPUs.</div><blockquote type="cite"><span class="Apple-style-span" style="border-collapse: separate; font-family: Helvetica; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: normal; orphans: 2; text-indent: 0px; text-transform: none; white-space: normal; widows: 2; word-spacing: 0px; -webkit-border-horizontal-spacing: 0px; -webkit-border-vertical-spacing: 0px; -webkit-text-decorations-in-effect: none; -webkit-text-size-adjust: auto; -webkit-text-stroke-width: 0px; font-size: medium; "><div style="margin-top: 10px; margin-right: 10px; margin-bottom: 10px; margin-left: 10px; font-family: verdana; font-size: 10pt; "><div><font color="#000080" size="2" face="Verdana"><div>&nbsp;</div><div></div><div>Second,&nbsp;in&nbsp;Gromacs-4.5&nbsp;new&nbsp;features,&nbsp;it's&nbsp;said:</div><div>"Running&nbsp;on&nbsp;multi-core&nbsp;nodes&nbsp;now&nbsp;automatically&nbsp;uses&nbsp;thread-based&nbsp;parallelization".</div><div>If&nbsp;there're&nbsp;two&nbsp;nodes&nbsp;with&nbsp;8&nbsp;CPU&nbsp;cores&nbsp;each,&nbsp;and&nbsp;I&nbsp;use&nbsp;all&nbsp;of&nbsp;the&nbsp;CPU&nbsp;cores,&nbsp;</div><div>is&nbsp;there&nbsp;8&nbsp;threads&nbsp;other&nbsp;than&nbsp;8&nbsp;MPI&nbsp;processes&nbsp;in&nbsp;one&nbsp;node?&nbsp;</div><div>If&nbsp;true,&nbsp;do&nbsp;the&nbsp;8&nbsp;threads&nbsp;in&nbsp;one&nbsp;node&nbsp;share&nbsp;with&nbsp;one&nbsp;large&nbsp;memory?&nbsp;</div><div>And&nbsp;what&nbsp;is&nbsp;the&nbsp;parallelization&nbsp;scheme&nbsp;inner&nbsp;the&nbsp;node&nbsp;and&nbsp;inter&nbsp;the&nbsp;nodes?</div></font></div></div></span></blockquote><div><br></div><div>Right now, threads and inter-node MPI communication are mutually exclusive: either you run a single node parallel run (with 8 threads in your case), or you run on multiple nodes with MPI. In that case, you specify the total number of cores as the number of MPI processes.</div></div><br></body></html>