<br><br>----- Original Message -----<br>From: "Justin A. Lemkul" &lt;jalemkul@vt.edu&gt;<br>Date: Tuesday, September 28, 2010 11:11<br>Subject: Re: [gmx-users] Hardware-specific crash with 4.5.1<br>To: Gromacs Users' List &lt;gmx-users@gromacs.org&gt;<br><br>&gt; <br>&gt; <br>&gt; Roland Schulz wrote:<br>&gt; &gt;Justin,<br>&gt; &gt;<br>&gt; &gt;I think the interaction kernel is not OK on your PowerPC <br>&gt; machine. I assume that from: 1) The force seems to be zero <br>&gt; (minimization output). 2) When you use the all-to-all kernel <br>&gt; which is not available for the powerpc kernel, it automatically <br>&gt; falls back to the C kernel and then it works.<br>&gt; &gt;<br>&gt; <br>&gt; Sounds about right.<br>&gt; <br>&gt; &gt;What is the kernel you are using? It should say in the log <br>&gt; file. Look for: "Configuring single precision IBM Power6-<br>&gt; specific Fortran kernels" or "Testing Altivec/VMX support"<br>&gt; &gt;<br>&gt; <br>&gt; I'm not finding either in the config.log - weird?<br><br>You were meant to look in the mdrun.log for runtime confirmation of what kernels GROMACS has decided to use.<br>&nbsp;<br>&gt; &gt;You can also look in the config.h whether&nbsp; GMX_POWER6 <br>&gt; and/or GMX_PPC_ALTIVEC is set. I suggest you try to compile with <br>&gt; one/both of them deactivated and see whether that solves it. <br>&gt; This will make it slower too. Thus if this is indeed the <br>&gt; problem, you will probably want to figure out why the fastest <br>&gt; kernel doesn't work correctly to get good performance.<br>&gt; &gt;<br>&gt; <br>&gt; It looks like GMX_PPC_ALTIVEC is set.&nbsp; I suppose I could re-<br>&gt; compile with this turned off.<br><br>This is supposed to be fine for Mac, as I understand.<br><br>&gt; Here's what's even weirder.&nbsp; The problematic version was <br>&gt; compiled using the standard autoconf procedure.&nbsp; If I use a <br>&gt; CMake-compiled version, the energy minimization runs fine, <br>&gt; giving the same results (energy and force) as the two systems I <br>&gt; know are good.&nbsp; So I guess there's something wrong with the <br>&gt; way autoconf installed Gromacs.&nbsp; Perhaps this isn't of <br>&gt; concern since Gromacs will require CMake in subsequent releases, <br>&gt; but I figure I should at least report it in case it affects <br>&gt; anyone else.<br>&gt; <br>&gt; If I may tack one more question on here, I'm wondering why my <br>&gt; CMake installation&nbsp; doesn't actually appear to be using <br>&gt; MPI.&nbsp; I get the right result, but the problem is, I get a <br>&gt; .log, .edr, and .trr for every processor that's being used, as <br>&gt; if each processor is being given its own job and not <br>&gt; distributing the work. Here's how I compiled my MPI mdrun, <br>&gt; version 4.5.1:<br><br>At the start and end of the .log files you should get indicators about how many MPI processes were actually being used.<br>&nbsp;<br>&gt; cmake ../gromacs-4.5.1 -DFFTW3F_LIBRARIES=/home/rdiv1001/fftw-<br>&gt; 3.0.1-osx/lib/libfftw3f.a -<br>&gt; DFFTW3F_INCLUDE_DIR=/home/rdiv1001/fftw-3.0.1-osx/include/ -<br>&gt; DCMAKE_INSTALL_PREFIX=/home/rdiv1001/gromacs-4.5_cmake-osx -<br>&gt; DGMX_BINARY_SUFFIX=_4.5_cmake_mpi -DGMX_THREADS=OFF -<br>&gt; DBUILD_SHARED_LIBS=OFF -DGMX_X11=OFF -DGMX_MPI=ON -<br>&gt; DMPI_COMPILER=/home/rdiv1001/compilers/openmpi-1.2.3-<br>&gt; osx/bin/mpicxx -<br>&gt; DMPI_INCLUDE_PATH=/home/rdiv1001/compilers/openmpi-1.2.3-osx/include<br>&gt; <br>&gt; $ make mdrun<br>&gt; <br>&gt; $ make install-mdrun<br>&gt; <br>&gt; Is there anything obviously wrong with those commands?&nbsp; Is <br>&gt; there any way I should know (before actually using mdrun) <br>&gt; whether or not I've done things right?<br><br>I think there ought to be, but IMO not enough preparation and testing has gone into the CMake switch for it to be usable.<br><br>Mark<br>&nbsp;<br>&gt; -Justin<br>&gt; <br>&gt; &gt;Roland<br>&gt; &gt;<br>&gt; &gt;<br>&gt; &gt;On Mon, Sep 27, 2010 at 4:59 PM, Justin A. Lemkul <br>&gt; &lt;jalemkul@vt.edu &lt;mailto:jalemkul@vt.edu&gt;&gt; wrote:<br>&gt; &gt;<br>&gt; &gt;<br>&gt; &gt;&nbsp;&nbsp;&nbsp; Hi All,<br>&gt; &gt;<br>&gt; &gt;&nbsp;&nbsp;&nbsp; I'm hoping I might get some tips in tracking <br>&gt; down the source of an<br>&gt; &gt;&nbsp;&nbsp;&nbsp; issue that appears to be hardware-specific, <br>&gt; leading to crashes in my<br>&gt; &gt;&nbsp;&nbsp;&nbsp; system.&nbsp; The failures are occurring on <br>&gt; our supercomputer (Mac OSX<br>&gt; &gt;&nbsp;&nbsp;&nbsp; 10.3, PowerPC).&nbsp; Running the same .tpr <br>&gt; file on my laptop (Mac OSX<br>&gt; &gt;&nbsp;&nbsp;&nbsp; 10.5.8, Intel Core2Duo) and on another <br>&gt; workstation (Ubuntu 10.04,<br>&gt; &gt;&nbsp;&nbsp;&nbsp; AMD64) produce identical results.&nbsp; I <br>&gt; suspect the problem stems from<br>&gt; &gt;&nbsp;&nbsp;&nbsp; unsuccessful energy minimization, which then <br>&gt; leads to a crash when<br>&gt; &gt;&nbsp;&nbsp;&nbsp; running full MD.&nbsp; All jobs were run in <br>&gt; parallel on two cores.&nbsp; The<br>&gt; &gt;&nbsp;&nbsp;&nbsp; supercomputer does not support threading, so <br>&gt; MPI is invoked using<br>&gt; &gt;&nbsp;&nbsp;&nbsp; MPICH-1.2.5 (native MPI implementation on <br>&gt; the cluster).<br>&gt; &gt;<br>&gt; &gt;<br>&gt; &gt;&nbsp;&nbsp;&nbsp; Details as follows:<br>&gt; &gt;<br>&gt; &gt;&nbsp;&nbsp;&nbsp; EM md.log file: successful run (Intel <br>&gt; Core2Duo or AMD64)<br>&gt; &gt;<br>&gt; &gt;&nbsp;&nbsp;&nbsp; Steepest Descents converged to Fmax &lt; <br>&gt; 1000 in 7 steps<br>&gt; &gt;&nbsp;&nbsp;&nbsp; Potential Energy&nbsp; = -4.8878180e+04<br>&gt; &gt;&nbsp;&nbsp;&nbsp; Maximum force&nbsp;&nbsp;&nbsp;&nbsp; <br>&gt; =&nbsp; 8.7791553e+02 on atom 5440<br>&gt; &gt;&nbsp;&nbsp;&nbsp; Norm of force&nbsp;&nbsp;&nbsp;&nbsp; <br>&gt; =&nbsp; 1.1781271e+02<br>&gt; &gt;<br>&gt; &gt;<br>&gt; &gt;&nbsp;&nbsp;&nbsp; EM md.log file: unsuccessful run (PowerPC)<br>&gt; &gt;<br>&gt; &gt;&nbsp;&nbsp;&nbsp; Steepest Descents converged to Fmax &lt; <br>&gt; 1000 in 1 steps<br>&gt; &gt;&nbsp;&nbsp;&nbsp; Potential Energy&nbsp; = -2.4873273e+04<br>&gt; &gt;&nbsp;&nbsp;&nbsp; Maximum force&nbsp;&nbsp;&nbsp;&nbsp; <br>&gt; =&nbsp; 0.0000000e+00 on atom 0<br>&gt; &gt;&nbsp;&nbsp;&nbsp; Norm of force&nbsp;&nbsp;&nbsp;&nbsp; <br>&gt; =&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; nan<br>&gt; &gt;<br>&gt; &gt;<br>&gt; &gt;&nbsp;&nbsp;&nbsp; MD invoked from the minimized structure <br>&gt; generated on my laptop or<br>&gt; &gt;&nbsp;&nbsp;&nbsp; AMD64 runs successfully (at least for a few <br>&gt; hundred steps in my<br>&gt; &gt;&nbsp;&nbsp;&nbsp; test), but the MD on the PowerPC cluster <br>&gt; fails immediately:<br>&gt; &gt;<br>&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Step&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Time&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Lambda<br>&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0.00000&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0.00000<br>&gt; &gt;<br>&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Energies (kJ/mol)<br>&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; U-B&nbsp;&nbsp;&nbsp; Proper Dih.&nbsp; Improper Dih.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; CMAP Dih.GB<br>&gt; &gt;&nbsp;&nbsp;&nbsp; Polarization<br>&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; <br>&gt; 7.93559e+03&nbsp;&nbsp;&nbsp; 9.34958e+03&nbsp;&nbsp;&nbsp; <br>&gt; 2.24036e+02&nbsp;&nbsp; -<br>&gt; 2.47750e+03&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; -7.83599e+04<br>&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; LJ-14&nbsp;&nbsp;&nbsp;&nbsp; Coulomb-14&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; LJ (SR)&nbsp;&nbsp; Coulomb (SR)&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Potential<br>&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; <br>&gt; 7.70042e+03&nbsp;&nbsp;&nbsp; 9.94520e+04&nbsp;&nbsp; -<br>&gt; 1.17168e+04&nbsp;&nbsp; -<br>&gt; 5.79783e+04&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; -2.55780e+04<br>&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Kinetic En.&nbsp;&nbsp; <br>&gt; Total Energy&nbsp;&nbsp;&nbsp; Temperature Pressure <br>&gt; (bar)&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Constr. rmsd<br>&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; nan&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; nan&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; nan&nbsp;&nbsp;&nbsp; 0.00000e+00&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; nan<br>&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; Constr.2 rmsd<br>&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; nan<br>&gt; &gt;<br>&gt; &gt;&nbsp;&nbsp;&nbsp; DD&nbsp; step 9 load imb.: force&nbsp; 3.0%<br>&gt; &gt;<br>&gt; &gt;<br>&gt; &gt;&nbsp;&nbsp;&nbsp; ---------------------------------------------<br>&gt; ----------<br>&gt; &gt;&nbsp;&nbsp;&nbsp; Program mdrun_4.5.1_mpi, VERSION 4.5.1<br>&gt; &gt;&nbsp;&nbsp;&nbsp; Source code file: nsgrid.c, line: 601<br>&gt; &gt;<br>&gt; &gt;&nbsp;&nbsp;&nbsp; Range checking error:<br>&gt; &gt;&nbsp;&nbsp;&nbsp; Explanation: During neighborsearching, we <br>&gt; assign each particle to a grid<br>&gt; &gt;&nbsp;&nbsp;&nbsp; based on its coordinates. If your system <br>&gt; contains collisions or<br>&gt; &gt;&nbsp;&nbsp;&nbsp; parameter<br>&gt; &gt;&nbsp;&nbsp;&nbsp; errors that give particles very high <br>&gt; velocities you might end up<br>&gt; &gt;&nbsp;&nbsp;&nbsp; with some<br>&gt; &gt;&nbsp;&nbsp;&nbsp; coordinates being +-Infinity or NaN (not-a-<br>&gt; number). Obviously, we cannot<br>&gt; &gt;&nbsp;&nbsp;&nbsp; put these on a grid, so this is usually <br>&gt; where we detect those errors.<br>&gt; &gt;&nbsp;&nbsp;&nbsp; Make sure your system is properly energy-<br>&gt; minimized and that the<br>&gt; &gt;&nbsp;&nbsp;&nbsp; potential<br>&gt; &gt;&nbsp;&nbsp;&nbsp; energy seems reasonable before trying again.<br>&gt; &gt;&nbsp;&nbsp;&nbsp; Variable ind has value 7131. It should have <br>&gt; been within [ 0 .. 7131 ]<br>&gt; &gt;<br>&gt; &gt;&nbsp;&nbsp;&nbsp; For more information and tips for <br>&gt; troubleshooting, please check the<br>&gt; &gt;&nbsp;&nbsp;&nbsp; GROMACS<br>&gt; &gt;&nbsp;&nbsp;&nbsp; website at <br>&gt; http://www.gromacs.org/Documentation/Errors&gt;&nbsp;&nbsp;&nbsp; --<br>&gt; -----------------------------------------------------<br>&gt; &gt;<br>&gt; &gt;&nbsp;&nbsp;&nbsp; It seems as if the crash really shouldn't be <br>&gt; happening, if the value<br>&gt; &gt;&nbsp;&nbsp;&nbsp; range is inclusive.<br>&gt; &gt;<br>&gt; &gt;&nbsp;&nbsp;&nbsp; Running with all-vs-all kernels works, but <br>&gt; the performance is<br>&gt; &gt;&nbsp;&nbsp;&nbsp; horrendously slow (&lt;300 ps per day for a <br>&gt; 7131-atom system) so I am<br>&gt; &gt;&nbsp;&nbsp;&nbsp; attempting to use long cutoffs (2.0 nm) as <br>&gt; others on the list have<br>&gt; &gt;&nbsp;&nbsp;&nbsp; suggested.<br>&gt; &gt;<br>&gt; &gt;&nbsp;&nbsp;&nbsp; Details of the installations and .mdp files <br>&gt; are appended below.<br>&gt; &gt;<br>&gt; &gt;&nbsp;&nbsp;&nbsp; -Justin<br>&gt; &gt;<br>&gt; &gt;&nbsp;&nbsp;&nbsp; === em.mdp ===<br>&gt; &gt;&nbsp;&nbsp;&nbsp; ; Run parameters<br>&gt; &gt;&nbsp;&nbsp;&nbsp; integrator&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = <br>&gt; steep&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; ; EM<br>&gt; &gt;&nbsp;&nbsp;&nbsp; emstep&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = 0.005<br>&gt; &gt;&nbsp;&nbsp;&nbsp; emtol&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = 1000<br>&gt; &gt;&nbsp;&nbsp;&nbsp; nsteps&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = 50000<br>&gt; &gt;&nbsp;&nbsp;&nbsp; <br>&gt; nstcomm&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = 1<br>&gt; &gt;&nbsp;&nbsp;&nbsp; comm_mode&nbsp;&nbsp; = <br>&gt; angular&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; ; non-periodic system<br>&gt; &gt;&nbsp;&nbsp;&nbsp; ; Bond parameters<br>&gt; &gt;&nbsp;&nbsp;&nbsp; constraint_algorithm&nbsp;&nbsp;&nbsp; = lincs<br>&gt; &gt;&nbsp;&nbsp;&nbsp; <br>&gt; constraints&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = all-bonds<br>&gt; &gt;&nbsp;&nbsp;&nbsp; continuation&nbsp;&nbsp;&nbsp; = <br>&gt; no&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; ; starting up<br>&gt; &gt;&nbsp;&nbsp;&nbsp; ; required cutoffs for implicit<br>&gt; &gt;&nbsp;&nbsp;&nbsp; <br>&gt; nstlist&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = 1<br>&gt; &gt;&nbsp;&nbsp;&nbsp; <br>&gt; ns_type&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = grid<br>&gt; &gt;&nbsp;&nbsp;&nbsp; <br>&gt; rlist&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = 2.0<br>&gt; &gt;&nbsp;&nbsp;&nbsp; <br>&gt; rcoulomb&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = 2.0<br>&gt; &gt;&nbsp;&nbsp;&nbsp; <br>&gt; rvdw&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = 2.0<br>&gt; &gt;&nbsp;&nbsp;&nbsp; ; cutoffs required for qq and vdw<br>&gt; &gt;&nbsp;&nbsp;&nbsp; coulombtype&nbsp;&nbsp;&nbsp;&nbsp; = cut-off<br>&gt; &gt;&nbsp;&nbsp;&nbsp; vdwtype&nbsp;&nbsp;&nbsp;&nbsp; = cut-off<br>&gt; &gt;&nbsp;&nbsp;&nbsp; ; temperature coupling<br>&gt; &gt;&nbsp;&nbsp;&nbsp; <br>&gt; tcoupl&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = no<br>&gt; &gt;&nbsp;&nbsp;&nbsp; ; Pressure coupling is off<br>&gt; &gt;&nbsp;&nbsp;&nbsp; <br>&gt; Pcoupl&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = no<br>&gt; &gt;&nbsp;&nbsp;&nbsp; ; Periodic boundary conditions are off for <br>&gt; implicit&gt;&nbsp;&nbsp;&nbsp; <br>&gt; pbc&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = no<br>&gt; &gt;&nbsp;&nbsp;&nbsp; ; Settings for implicit solvent<br>&gt; &gt;&nbsp;&nbsp;&nbsp; implicit_solvent&nbsp;&nbsp;&nbsp; = GBSA<br>&gt; &gt;&nbsp;&nbsp;&nbsp; <br>&gt; gb_algorithm&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = OBC<br>&gt; &gt;&nbsp;&nbsp;&nbsp; <br>&gt; rgbradii&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = 2.0<br>&gt; &gt;<br>&gt; &gt;<br>&gt; &gt;&nbsp;&nbsp;&nbsp; === md.mdp ===<br>&gt; &gt;<br>&gt; &gt;&nbsp;&nbsp;&nbsp; ; Run parameters<br>&gt; &gt;&nbsp;&nbsp;&nbsp; integrator&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = <br>&gt; sd&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; ; velocity Langevin dynamics<br>&gt; &gt;&nbsp;&nbsp;&nbsp; <br>&gt; dt&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = 0.002<br>&gt; &gt;&nbsp;&nbsp;&nbsp; <br>&gt; nsteps&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = <br>&gt; 2500000&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; ; 5000 ps (5 ns)<br>&gt; &gt;&nbsp;&nbsp;&nbsp; <br>&gt; nstcomm&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = 1<br>&gt; &gt;&nbsp;&nbsp;&nbsp; comm_mode&nbsp;&nbsp; = <br>&gt; angular&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; ; non-periodic system<br>&gt; &gt;&nbsp;&nbsp;&nbsp; ; Output parameters<br>&gt; &gt;&nbsp;&nbsp;&nbsp; <br>&gt; nstxout&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = <br>&gt; 0&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; ; nst[xvf]out = 0 to suppress<br>&gt; &gt;&nbsp;&nbsp;&nbsp; useless .trr output<br>&gt; &gt;&nbsp;&nbsp;&nbsp; <br>&gt; nstvout&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = 0<br>&gt; &gt;&nbsp;&nbsp;&nbsp; <br>&gt; nstfout&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = 0<br>&gt; &gt;&nbsp;&nbsp;&nbsp; nstlog&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = <br>&gt; 5000&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; ; 10 ps<br>&gt; &gt;&nbsp;&nbsp;&nbsp; nstenergy&nbsp;&nbsp; = <br>&gt; 5000&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; ; 10 ps<br>&gt; &gt;&nbsp;&nbsp;&nbsp; nstxtcout&nbsp;&nbsp; = <br>&gt; 5000&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; ; 10 ps<br>&gt; &gt;&nbsp;&nbsp;&nbsp; ; Bond parameters<br>&gt; &gt;&nbsp;&nbsp;&nbsp; constraint_algorithm&nbsp;&nbsp;&nbsp; = lincs<br>&gt; &gt;&nbsp;&nbsp;&nbsp; <br>&gt; constraints&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = all-bonds<br>&gt; &gt;&nbsp;&nbsp;&nbsp; continuation&nbsp;&nbsp;&nbsp; = <br>&gt; no&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; ; starting up<br>&gt; &gt;&nbsp;&nbsp;&nbsp; ; required cutoffs for implicit<br>&gt; &gt;&nbsp;&nbsp;&nbsp; <br>&gt; nstlist&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = 10<br>&gt; &gt;&nbsp;&nbsp;&nbsp; <br>&gt; ns_type&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = grid<br>&gt; &gt;&nbsp;&nbsp;&nbsp; <br>&gt; rlist&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = 2.0<br>&gt; &gt;&nbsp;&nbsp;&nbsp; <br>&gt; rcoulomb&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = 2.0<br>&gt; &gt;&nbsp;&nbsp;&nbsp; <br>&gt; rvdw&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = 2.0<br>&gt; &gt;&nbsp;&nbsp;&nbsp; ; cutoffs required for qq and vdw<br>&gt; &gt;&nbsp;&nbsp;&nbsp; coulombtype&nbsp;&nbsp;&nbsp;&nbsp; = cut-off<br>&gt; &gt;&nbsp;&nbsp;&nbsp; vdwtype&nbsp;&nbsp;&nbsp;&nbsp; = cut-off<br>&gt; &gt;&nbsp;&nbsp;&nbsp; ; temperature coupling<br>&gt; &gt;&nbsp;&nbsp;&nbsp; <br>&gt; tc_grps&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = System<br>&gt; &gt;&nbsp;&nbsp;&nbsp; <br>&gt; tau_t&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = 1.0&nbsp;&nbsp; ; inverse friction coefficient for Langevin<br>&gt; &gt;&nbsp;&nbsp;&nbsp; (ps^-1)<br>&gt; &gt;&nbsp;&nbsp;&nbsp; <br>&gt; ref_t&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = 310<br>&gt; &gt;&nbsp;&nbsp;&nbsp; ; Pressure coupling is off<br>&gt; &gt;&nbsp;&nbsp;&nbsp; <br>&gt; Pcoupl&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = no<br>&gt; &gt;&nbsp;&nbsp;&nbsp; ; Generate velocities is on<br>&gt; &gt;&nbsp;&nbsp;&nbsp; <br>&gt; gen_vel&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = <br>&gt; yes&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; gen_temp&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = 310<br>&gt; &gt;&nbsp;&nbsp;&nbsp; <br>&gt; gen_seed&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = 173529<br>&gt; &gt;&nbsp;&nbsp;&nbsp; ; Periodic boundary conditions are off for <br>&gt; implicit&gt;&nbsp;&nbsp;&nbsp; <br>&gt; pbc&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = no<br>&gt; &gt;&nbsp;&nbsp;&nbsp; ; Free energy must be off to use all-vs-all <br>&gt; kernels&gt;&nbsp;&nbsp;&nbsp; ; default, but just for the sake of <br>&gt; being pedantic<br>&gt; &gt;&nbsp;&nbsp;&nbsp; free_energy = no<br>&gt; &gt;&nbsp;&nbsp;&nbsp; ; Settings for implicit solvent<br>&gt; &gt;&nbsp;&nbsp;&nbsp; implicit_solvent&nbsp;&nbsp;&nbsp; = GBSA<br>&gt; &gt;&nbsp;&nbsp;&nbsp; <br>&gt; gb_algorithm&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = OBC<br>&gt; &gt;&nbsp;&nbsp;&nbsp; <br>&gt; rgbradii&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; = 2.0<br>&gt; &gt;<br>&gt; &gt;<br>&gt; &gt;&nbsp;&nbsp;&nbsp; === Installation commands for the cluster ===<br>&gt; &gt;<br>&gt; &gt;&nbsp;&nbsp;&nbsp; $ ./configure --<br>&gt; prefix=/home/rdiv1001/gromacs-4.5<br>&gt; &gt;&nbsp;&nbsp;&nbsp; CPPFLAGS="-I/home/rdiv1001/fftw-3.0.1-osx/include"<br>&gt; &gt;&nbsp;&nbsp;&nbsp; LDFLAGS="-L/home/rdiv1001/fftw-3.0.1-<br>&gt; osx/lib" --disable-threads<br>&gt; &gt;&nbsp;&nbsp;&nbsp; --without-x --program-suffix=_4.5.1_s<br>&gt; &gt;<br>&gt; &gt;&nbsp;&nbsp;&nbsp; $ make<br>&gt; &gt;<br>&gt; &gt;&nbsp;&nbsp;&nbsp; $ make install<br>&gt; &gt;<br>&gt; &gt;&nbsp;&nbsp;&nbsp; $ make distclean<br>&gt; &gt;<br>&gt; &gt;&nbsp;&nbsp;&nbsp; $ ./configure --<br>&gt; prefix=/home/rdiv1001/gromacs-4.5<br>&gt; &gt;&nbsp;&nbsp;&nbsp; CPPFLAGS="-I/home/rdiv1001/fftw-3.0.1-osx/include"<br>&gt; &gt;&nbsp;&nbsp;&nbsp; LDFLAGS="-L/home/rdiv1001/fftw-3.0.1-<br>&gt; osx/lib" --disable-threads<br>&gt; &gt;&nbsp;&nbsp;&nbsp; --without-x --program-suffix=_4.5.1_mpi --<br>&gt; enable-mpi<br>&gt; &gt;&nbsp;&nbsp;&nbsp; CXXCPP="/nfs/compilers/mpich-<br>&gt; 1.2.5/bin/mpicxx -E"<br>&gt; &gt;<br>&gt; &gt;&nbsp;&nbsp;&nbsp; $ make mdrun<br>&gt; &gt;<br>&gt; &gt;&nbsp;&nbsp;&nbsp; $ make install-mdrun<br>&gt; &gt;<br>&gt; &gt;<br>&gt; &gt;&nbsp;&nbsp;&nbsp; --&nbsp;&nbsp;&nbsp;&nbsp; <br>&gt; ========================================&gt;<br>&gt; &gt;&nbsp;&nbsp;&nbsp; Justin A. Lemkul<br>&gt; &gt;&nbsp;&nbsp;&nbsp; Ph.D. Candidate<br>&gt; &gt;&nbsp;&nbsp;&nbsp; ICTAS Doctoral Scholar<br>&gt; &gt;&nbsp;&nbsp;&nbsp; MILES-IGERT Trainee<br>&gt; &gt;&nbsp;&nbsp;&nbsp; Department of Biochemistry<br>&gt; &gt;&nbsp;&nbsp;&nbsp; Virginia Tech<br>&gt; &gt;&nbsp;&nbsp;&nbsp; Blacksburg, VA<br>&gt; &gt;&nbsp;&nbsp;&nbsp; jalemkul[at]vt.edu &lt;http://vt.edu&gt; | <br>&gt; (540) 231-9080<br>&gt; &gt;&nbsp;&nbsp;&nbsp; <br>&gt; http://www.bevanlab.biochem.vt.edu/Pages/Personal/justin&gt;<br>&gt; &gt;&nbsp;&nbsp;&nbsp; ========================================<br>&gt; &gt;&nbsp;&nbsp;&nbsp; --&nbsp;&nbsp;&nbsp;&nbsp; gmx-users mailing <br>&gt; list&nbsp;&nbsp;&nbsp; gmx-users@gromacs.org<br>&gt; &gt;&nbsp;&nbsp;&nbsp; &lt;mailto:gmx-users@gromacs.org&gt;<br>&gt; &gt;&nbsp;&nbsp;&nbsp; <br>&gt; http://lists.gromacs.org/mailman/listinfo/gmx-users<br>&gt; &gt;&nbsp;&nbsp;&nbsp; Please search the archive at<br>&gt; &gt;&nbsp;&nbsp;&nbsp; <br>&gt; http://www.gromacs.org/Support/Mailing_Lists/Search before posting!<br>&gt; &gt;&nbsp;&nbsp;&nbsp; Please don't post (un)subscribe requests to <br>&gt; the list. Use the www<br>&gt; &gt;&nbsp;&nbsp;&nbsp; interface or send it to gmx-users-<br>&gt; request@gromacs.org&gt;&nbsp;&nbsp;&nbsp; &lt;mailto:gmx-users-<br>&gt; request@gromacs.org&gt;.&gt;&nbsp;&nbsp;&nbsp; Can't post? Read <br>&gt; http://www.gromacs.org/Support/Mailing_Lists&gt;<br>&gt; &gt;<br>&gt; &gt;<br>&gt; &gt;<br>&gt; &gt;-- <br>&gt; &gt;ORNL/UT Center for Molecular Biophysics cmb.ornl.gov <br>&gt; &lt;http://cmb.ornl.gov&gt;&gt;865-241-1537, ORNL PO BOX 2008 MS6309<br>&gt; <br>&gt; -- <br>&gt; ========================================<br>&gt; <br>&gt; Justin A. Lemkul<br>&gt; Ph.D. Candidate<br>&gt; ICTAS Doctoral Scholar<br>&gt; MILES-IGERT Trainee<br>&gt; Department of Biochemistry<br>&gt; Virginia Tech<br>&gt; Blacksburg, VA<br>&gt; jalemkul[at]vt.edu | (540) 231-9080<br>&gt; http://www.bevanlab.biochem.vt.edu/Pages/Personal/justin<br>&gt; <br>&gt; ========================================<br>&gt; -- <br>&gt; gmx-users mailing list&nbsp;&nbsp;&nbsp; gmx-users@gromacs.org<br>&gt; http://lists.gromacs.org/mailman/listinfo/gmx-users<br>&gt; Please search the archive at <br>&gt; http://www.gromacs.org/Support/Mailing_Lists/Search before posting!<br>&gt; Please don't post (un)subscribe requests to the list. Use the <br>&gt; www interface or send it to gmx-users-request@gromacs.org.<br>&gt; Can't post? Read http://www.gromacs.org/Support/Mailing_Lists