<html>
<head>
<style>
.hmmessage P
{
margin:0px;
padding:0px
}
body.hmmessage
{
font-size: 10pt;
font-family:Verdana
}
</style>
</head>
<body class='hmmessage'>
Hi,<br><br>When running in parallel on a cluster through a queuing system<br>one usually does not (or can not) see or check the nice level<br>of the mdrun processes. But the nice level can have a significant<br>impact on performance, especially when running in parallel,<br>since all processes have to wait for the slowest one.<br>Therefore I set the nicelevel to 0 when running in parallel.<br><br>Note that if you configure mdrun with --enable_mpi --enable-mpi-environment,<br>running an MPI mdrun binary without mpirun will still give nice 19.<br><br>Berk<br><br><hr id="stopSpelling">Date: Mon, 19 Jan 2009 16:29:16 +0000<br>From: jmdamas@itqb.unl.pt<br>To: gmx-users@gromacs.org<br>Subject: [gmx-users] Nicelevel default 0 - mdrun_mpi of Gromacs 4.0.2<br><br>Hello,<br><br>I would like to know if there is any reason for mdrun_mpi to have a nicelevel default of zero in Gromacs 4.0.2 instead of the default 19 of mdrun of every version or mdrun_mpi of the other versions. I searched the mailing list for any discussion related to this but I haven't found anything.<br>
<br>Thanks in advance,<br>Joćo<br clear="all"><br>-- <br>Joćo M. Damas<br>PhD Student<br>Protein Modelling Group<br>ITQB-UNL, Oeiras, Portugal<br>Tel:+351-214469613<br><br /><hr />Express yourself instantly with MSN Messenger! <a href='http://clk.atdmt.com/AVE/go/onm00200471ave/direct/01/' target='_new'>MSN Messenger</a></body>
</html>