<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Strict//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-strict.dtd">

<html xmlns="http://www.w3.org/1999/xhtml">
  <head>
    <meta content="text/html; charset=UTF-8" http-equiv="Content-Type" />
    <title></title>
  </head>

  <body>
    <p style="margin: 0px;"><span>&#160;</span></p>

    <div style="margin: 5px 0px 5px 0px;">
      On January 25, 2011 at 3:24 PM &quot;Justin A. Lemkul&quot; &lt;jalemkul@vt.edu&gt; wrote:<br />
      <br />
      &gt;<br />
      &gt;<br />
      &gt; TJ Mustard wrote:<br />
      &gt; &gt;<br />
      &gt; &gt;<br />
      &gt; &gt;&#160;<br />
      &gt; &gt;<br />
      &gt; &gt;<br />
      &gt; &gt; On January 25, 2011 at 2:08 PM Mark Abraham &lt;Mark.Abraham@anu.edu.au&gt; wrote:<br />
      &gt; &gt;<br />
      &gt; &gt;&gt; On 26/01/2011 5:50 AM, TJ Mustard wrote:<br />
      &gt; &gt;&gt;&gt;<br />
      &gt; &gt;&gt;&gt; Hi all,<br />
      &gt; &gt;&gt;&gt;<br />
      &gt; &gt;&gt;&gt;&#160;<br />
      &gt; &gt;&gt;&gt;<br />
      &gt; &gt;&gt;&gt; I am running MD/FEP on a protein-ligand system with gromacs 4.5.3 and<br />
      &gt; &gt;&gt;&gt; FFTW 3.2.2.<br />
      &gt; &gt;&gt;&gt;<br />
      &gt; &gt;&gt;&gt;&#160;<br />
      &gt; &gt;&gt;&gt;<br />
      &gt; &gt;&gt;&gt; My iMac will run the job (over 4000 steps, till I killed it) at 4fs<br />
      &gt; &gt;&gt;&gt; steps. (I am using heavy H)<br />
      &gt; &gt;&gt;&gt;<br />
      &gt; &gt;&gt;&gt;&#160;<br />
      &gt; &gt;&gt;&gt;<br />
      &gt; &gt;&gt;&gt; Once I put this on our groups AMD Cluster the jobs fail even with 2fs<br />
      &gt; &gt;&gt;&gt; steps. (with thousands of lincs errors)<br />
      &gt; &gt;&gt;&gt;<br />
      &gt; &gt;&gt;&gt;&#160;<br />
      &gt; &gt;&gt;&gt;<br />
      &gt; &gt;&gt;&gt; We have recompiled the clusters gromacs 4.5.3 build, with no change.<br />
      &gt; &gt;&gt;&gt; I know the system is the same since I copied the job from the server<br />
      &gt; &gt;&gt;&gt; to my machine, to rerun it.<br />
      &gt; &gt;&gt;&gt;<br />
      &gt; &gt;&gt;&gt;&#160;<br />
      &gt; &gt;&gt;&gt;<br />
      &gt; &gt;&gt;&gt; What is going on? Why can one machine run a job perfectly and the<br />
      &gt; &gt;&gt;&gt; other cannot? I also know there is adequate memory on both machines.<br />
      &gt; &gt;&gt;&gt;<br />
      &gt; &gt;&gt;<br />
      &gt; &gt;&gt; You&#39;ve posted this before, and I made a number of diagnostic<br />
      &gt; &gt;&gt; suggestions. What did you learn?<br />
      &gt; &gt;&gt;<br />
      &gt; &gt;&gt; Mark<br />
      &gt; &gt;<br />
      &gt; &gt; Mark and all,<br />
      &gt; &gt;<br />
      &gt; &gt;&#160;<br />
      &gt; &gt;<br />
      &gt; &gt; First thank you for all our help. What you suggested last time helped<br />
      &gt; &gt; considerably with our jobs/calculations. I have learned that using the<br />
      &gt; &gt; standard mdp settings allow my heavyh 4fs jobs to run on my iMac (intel)<br />
      &gt; &gt; and have made these my new standard for future jobs. We chose to use the<br />
      &gt; &gt; smaller 0.8nm PME/Cutoff due to others papers/tutorials, but now we<br />
      &gt; &gt; understand why we need these standard settings. Now what I see to be our<br />
      &gt; &gt; problem is that our machines have some sort of variable we cannot<br />
      &gt; &gt; account for. If I am blind to my error, please show me. I just don&#39;t<br />
      &gt; &gt; understand why one computer works while the other does not. We have<br />
      &gt; &gt; recompiled gromacs 4.5.3 single precission on our cluster, and still<br />
      &gt; &gt; have this problem.<br />
      &gt; &gt;<br />
      &gt;<br />
      &gt; I know the feeling all too well.&#160; PowerPC jobs crash instantly, on our cluster,<br />
      &gt; despite working beautifully on our lab machines.&#160; There&#39;s a bug report about<br />
      &gt; that one, but I haven&#39;t heard anything about AMD failures.&#160; It remains a<br />
      &gt; possibility that something beyond your control is going on.&#160; To explore a bit<br />
      &gt; further:<br />
      &gt;<br />
      &gt; 1. Do the systems in question crash immediately (i.e., step zero) or do they run<br />
      &gt; for some time?<br />
      &gt;
    </div>

    <p style="margin: 0px;">Step 0, every time.</p>

    <p style="margin: 0px;">&#160;</p>

    <div style="margin: 5px 0px 5px 0px;">
      &gt; 2. If they give you even a little bit of output, you can analyze which energy<br />
      &gt; terms, etc go haywire with the tips listed here:<br />
      &gt;
    </div>

    <p style="margin: 0px;">All I have seen on these is LINCS Errors and Water molecules unable to be settled.</p>

    <p style="margin: 0px;">&#160;</p>

    <p style="margin: 0px;">But I will check this out right now, and email if I smell trouble.</p>

    <p style="margin: 0px;">&#160;</p>

    <div style="margin: 5px 0px 5px 0px;">
      &gt; http://www.gromacs.org/Documentation/Terminology/Blowing_Up#Diagnosing_an_Unstable_System<br />
      &gt;<br />
      &gt; That would help in tracking down any potential bug or error.<br />
      &gt;<br />
      &gt; 3. Is it just the production runs that are crashing, or everything?&#160; If EM isn&#39;t<br />
      &gt; even working, that smells even buggier.
    </div>

    <p style="margin: 0px;">Awesome question here, we have seen some weird stuff. Sometimes the cluster will give us segmentation faults, then it will fail on our machines or sometimes not on our iMacs. I know weird! If EM starts on the cluster it will finish. Where we have issues is in positional restraint (PR) and MD and MD/FEP. It doesn&#39;t matter if FEP is on or off in a MD (although we are using SD for these MD/FEP runs).</p>

    <p style="margin: 0px;">&#160;</p>

    <div style="margin: 5px 0px 5px 0px;">
      &gt;<br />
      &gt; 4. Are the compilers the same on the iMac vs. AMD cluster?
    </div>

    <p style="margin: 0px;">No I am using x86_64-apple-darwin10 GCC 4.4.4 and the cluster is using x86_64-redhat-linux 4.1.2 GCC.</p>

    <p style="margin: 0px;">I just did a quick yum search and there doesn&#39;t seem to be a newer GCC. We know you are going to cmake but we have yet to get it implemented on our cluster successfully.</p>

    <p style="margin: 0px;">&#160;</p>

    <p style="margin: 0px;">Thank you,</p>

    <p style="margin: 0px;">TJ Mustard</p>

    <p style="margin: 0px;">&#160;</p>

    <div style="margin: 5px 0px 5px 0px;">
      &gt;<br />
      &gt; -Justin<br />
      &gt;<br />
      &gt; &gt;&#160;<br />
      &gt; &gt;<br />
      &gt; &gt; Now I understand that my iMac works, but it only has 2 cpus and the<br />
      &gt; &gt; cluster has 320. Since we are running our jobs via a Bennet&#39;s Acceptance<br />
      &gt; &gt; Ratio FEP with 21 lambda windows, using just one 2 cpu machine would<br />
      &gt; &gt; take too long. Especially since we wish to start pseudo high throughput<br />
      &gt; &gt; drug testing.<br />
      &gt; &gt;<br />
      &gt; &gt;&#160;<br />
      &gt; &gt;<br />
      &gt; &gt;&#160;<br />
      &gt; &gt;<br />
      &gt; &gt; In my .mdp files now, the only changes are:<br />
      &gt; &gt;<br />
      &gt; &gt; (the default setting is on the right of the &quot;;&quot;)<br />
      &gt; &gt;<br />
      &gt; &gt;&#160;<br />
      &gt; &gt;<br />
      &gt; &gt;&#160;<br />
      &gt; &gt;<br />
      &gt; &gt; define&#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160;=&#160; &#160; &#160;; =<br />
      &gt; &gt;<br />
      &gt; &gt; ; RUN CONTROL PARAMETERS<br />
      &gt; &gt; integrator&#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160;= sd&#160; &#160; ; = md<br />
      &gt; &gt; ; Start time and timestep in ps<br />
      &gt; &gt; tinit&#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; = 0&#160; &#160; ; = 0<br />
      &gt; &gt; dt&#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160;= 0.004&#160; &#160; ; = 0.001<br />
      &gt; &gt; nsteps&#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160;= 750000&#160; &#160; &#160; &#160;; = 0 (this one depends on the<br />
      &gt; &gt; window and particular part of our job)<br />
      &gt; &gt;<br />
      &gt; &gt; ; OUTPUT CONTROL OPTIONS<br />
      &gt; &gt; ; Output frequency for coords (x), velocities (v) and forces (f)<br />
      &gt; &gt; nstxout&#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; = 10000&#160; &#160; ; = 100 (to save on disk space)<br />
      &gt; &gt; nstvout&#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; = 10000&#160; &#160; ; = 100<br />
      &gt; &gt;<br />
      &gt; &gt;&#160;<br />
      &gt; &gt;<br />
      &gt; &gt; ; OPTIONS FOR ELECTROSTATICS AND VDW<br />
      &gt; &gt; ; Method for doing electrostatics<br />
      &gt; &gt; coulombtype&#160; &#160; &#160; &#160; &#160; &#160; &#160; = PME&#160; &#160; ; = Cutoff<br />
      &gt; &gt; rcoulomb-switch&#160; &#160; &#160; &#160; &#160; = 0&#160; &#160; ; = 0<br />
      &gt; &gt; rcoulomb&#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160;= 1&#160; ; = 1<br />
      &gt; &gt; ; Relative dielectric constant for the medium and the reaction field<br />
      &gt; &gt; epsilon_r&#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; = 1&#160; &#160; ; = 1<br />
      &gt; &gt; epsilon_rf&#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160;= 1&#160; &#160; ; = 1<br />
      &gt; &gt; ; Method for doing Van der Waals<br />
      &gt; &gt; vdw-type&#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160;= Cut-off&#160; &#160; ; = Cut-off<br />
      &gt; &gt; ; cut-off lengths&#160; &#160; &#160; &#160;<br />
      &gt; &gt; rvdw-switch&#160; &#160; &#160; &#160; &#160; &#160; &#160; = 0&#160; &#160; ; = 0<br />
      &gt; &gt; rvdw&#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160;= 1&#160; ; = 1<br />
      &gt; &gt; ; Spacing for the PME/PPPM FFT grid<br />
      &gt; &gt; fourierspacing&#160; &#160; &#160; &#160; &#160; &#160;= 0.12&#160; &#160; ; = 0.12<br />
      &gt; &gt; ; EWALD/PME/PPPM parameters<br />
      &gt; &gt; pme_order&#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; = 4&#160; &#160; ; = 4<br />
      &gt; &gt; ewald_rtol&#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160;= 1e-05&#160; &#160; ; = 1e-05<br />
      &gt; &gt; ewald_geometry&#160; &#160; &#160; &#160; &#160; &#160;= 3d&#160; &#160; ; = 3d<br />
      &gt; &gt; epsilon_surface&#160; &#160; &#160; &#160; &#160; = 0&#160; &#160; ; = 0<br />
      &gt; &gt; optimize_fft&#160; &#160; &#160; &#160; &#160; &#160; &#160;= yes&#160; &#160; ; = no<br />
      &gt; &gt;<br />
      &gt; &gt;&#160;<br />
      &gt; &gt;<br />
      &gt; &gt; ; OPTIONS FOR WEAK COUPLING ALGORITHMS<br />
      &gt; &gt; ; Temperature coupling&#160;<br />
      &gt; &gt; tcoupl&#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160;= v-rescale&#160; &#160; ; = No<br />
      &gt; &gt; nsttcouple&#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160;= -1&#160; &#160; ; = -1<br />
      &gt; &gt; nh-chain-length&#160; &#160; &#160; &#160; &#160; = 10&#160; &#160; ; = 10<br />
      &gt; &gt; ; Groups to couple separately<br />
      &gt; &gt; tc-grps&#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; = System&#160; &#160; ; =<br />
      &gt; &gt; ; Time constant (ps) and reference temperature (K)<br />
      &gt; &gt; tau-t&#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; = 0.1&#160; &#160; ; =<br />
      &gt; &gt; ref-t&#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; = 300&#160; &#160; ; =<br />
      &gt; &gt; ; Pressure coupling&#160; &#160; &#160;<br />
      &gt; &gt; Pcoupl&#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160;= Parrinello-Rahman&#160; &#160; ; = No<br />
      &gt; &gt; Pcoupltype&#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160;= Isotropic<br />
      &gt; &gt; nstpcouple&#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160;= -1&#160; &#160; ; = -1<br />
      &gt; &gt; ; Time constant (ps), compressibility (1/bar) and reference P (bar)<br />
      &gt; &gt; tau-p&#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; = 1&#160; &#160; ; = 1<br />
      &gt; &gt; compressibility&#160; &#160; &#160; &#160; &#160; = 4.5e-5&#160; &#160; ; =<br />
      &gt; &gt; ref-p&#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; = 1.0&#160; &#160; ; =<br />
      &gt; &gt;<br />
      &gt; &gt;&#160;<br />
      &gt; &gt;<br />
      &gt; &gt; ; OPTIONS FOR BONDS&#160; &#160;<br />
      &gt; &gt; constraints&#160; &#160; &#160; &#160; &#160; &#160; &#160; = all-bonds&#160; &#160; ; = none<br />
      &gt; &gt; ; Type of constraint algorithm<br />
      &gt; &gt; constraint-algorithm&#160; &#160; &#160;= Lincs&#160; &#160; ; = Lincs<br />
      &gt; &gt;<br />
      &gt; &gt;&#160;<br />
      &gt; &gt;<br />
      &gt; &gt; ; Free energy control stuff<br />
      &gt; &gt; free-energy&#160; &#160; &#160; &#160; &#160; &#160; &#160; = yes&#160; &#160; ; = no<br />
      &gt; &gt; init-lambda&#160; &#160; &#160; &#160; &#160; &#160; &#160; = 0.00&#160; &#160; &#160; &#160;; = 0<br />
      &gt; &gt; delta-lambda&#160; &#160; &#160; &#160; &#160; &#160; &#160;= 0&#160; &#160; ; = 0<br />
      &gt; &gt; foreign_lambda&#160; &#160; &#160; &#160; &#160; &#160;=&#160; &#160; &#160; &#160; 0.05 ; =<br />
      &gt; &gt; sc-alpha&#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160;= 0.5&#160; &#160; ; = 0<br />
      &gt; &gt; sc-power&#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160;= 1.0&#160; &#160; ; = 0<br />
      &gt; &gt; sc-sigma&#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160;= 0.3&#160; &#160; ; = 0.3<br />
      &gt; &gt; nstdhdl&#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; &#160; = 1&#160; &#160; ; = 10<br />
      &gt; &gt; separate-dhdl-file&#160; &#160; &#160; &#160;= yes&#160; &#160; ; = yes<br />
      &gt; &gt; dhdl-derivatives&#160; &#160; &#160; &#160; &#160;= yes&#160; &#160; ; = yes<br />
      &gt; &gt; dh_hist_size&#160; &#160; &#160; &#160; &#160; &#160; &#160;= 0&#160; &#160; ; = 0<br />
      &gt; &gt; dh_hist_spacing&#160; &#160; &#160; &#160; &#160; = 0.1&#160; &#160; ; = 0.1<br />
      &gt; &gt; couple-moltype&#160; &#160; &#160; &#160; &#160; &#160;= LGD&#160; &#160; ; =<br />
      &gt; &gt; couple-lambda0&#160; &#160; &#160; &#160; &#160; &#160;= vdw-q&#160; &#160; ; = vdw-q<br />
      &gt; &gt; couple-lambda1&#160; &#160; &#160; &#160; &#160; &#160;= none&#160; &#160; ; = vdw-q<br />
      &gt; &gt; couple-intramol&#160; &#160; &#160; &#160; &#160; = no&#160; &#160; &#160;;&#160; &#160; = no<br />
      &gt; &gt;<br />
      &gt; &gt;&#160;<br />
      &gt; &gt;<br />
      &gt; &gt;&#160;<br />
      &gt; &gt;<br />
      &gt; &gt; Some of these change due to positional restraint md and energy minimization.<br />
      &gt; &gt;<br />
      &gt; &gt;&#160;<br />
      &gt; &gt;<br />
      &gt; &gt; All of these settings have come from either tutorials, papers or peoples<br />
      &gt; &gt; advice.<br />
      &gt; &gt;<br />
      &gt; &gt;&#160;<br />
      &gt; &gt;<br />
      &gt; &gt; If it would be advantageous I can post my entire energy minimization,<br />
      &gt; &gt; positional restraint, md, and FEP mdp files.<br />
      &gt; &gt;<br />
      &gt; &gt;&#160;<br />
      &gt; &gt;<br />
      &gt; &gt; Thank you,<br />
      &gt; &gt;<br />
      &gt; &gt; TJ Mustard<br />
      &gt; &gt;<br />
      &gt; &gt;&#160;<br />
      &gt; &gt;<br />
      &gt; &gt;&#160;<br />
      &gt; &gt;<br />
      &gt; &gt;&gt;&gt;&#160;<br />
      &gt; &gt;&gt;&gt;<br />
      &gt; &gt;&gt;&gt; Below is my command sequence:<br />
      &gt; &gt;&gt;&gt;<br />
      &gt; &gt;&gt;&gt;&#160;<br />
      &gt; &gt;&gt;&gt;<br />
      &gt; &gt;&gt;&gt; echo<br />
      &gt; &gt;&gt;&gt; ==============================================================================================================================<br />
      &gt; &gt;&gt;&gt; date &gt;&gt;RNAP-C.joblog<br />
      &gt; &gt;&gt;&gt; echo g453s-grompp -f em.mdp -c RNAP-C_b4em.gro -p RNAP-C.top -o<br />
      &gt; &gt;&gt;&gt; RNAP-C_em.tpr<br />
      &gt; &gt;&gt;&gt; /share/apps/gromacs-4.5.3-single/bin/g453s-grompp -f em.mdp -c<br />
      &gt; &gt;&gt;&gt; RNAP-C_b4em.gro -p RNAP-C.top -o RNAP-C_em.tpr<br />
      &gt; &gt;&gt;&gt; date &gt;&gt;RNAP-C.joblog<br />
      &gt; &gt;&gt;&gt; echo g453s-mdrun -v -s RNAP-C_em.tpr -c RNAP-C_after_em.gro -g<br />
      &gt; &gt;&gt;&gt; emlog.log -cpo state_em.cpt -nt 2<br />
      &gt; &gt;&gt;&gt; /share/apps/gromacs-4.5.3-single/bin/g453s-mdrun -v -s RNAP-C_em.tpr<br />
      &gt; &gt;&gt;&gt; -c RNAP-C_after_em.gro -g emlog.log -cpo stat_em.cpt -nt 2<br />
      &gt; &gt;&gt;&gt; date &gt;&gt;RNAP-C.joblog<br />
      &gt; &gt;&gt;&gt; echo g453s-grompp -f pr.mdp -c RNAP-C_after_em.gro -p RNAP-C.top -o<br />
      &gt; &gt;&gt;&gt; RNAP-C_pr.tpr<br />
      &gt; &gt;&gt;&gt; /share/apps/gromacs-4.5.3-single/bin/g453s-grompp -f pr.mdp -c<br />
      &gt; &gt;&gt;&gt; RNAP-C_after_em.gro -p RNAP-C.top -o RNAP-C_pr.tpr<br />
      &gt; &gt;&gt;&gt; echo g453s-mdrun -v -s RNAP-C_pr.tpr -e pr.edr -c RNAP-C_after_pr.gro<br />
      &gt; &gt;&gt;&gt; -g prlog.log -cpo state_pr.cpt -nt 2 -dhdl dhdl-pr.xvg<br />
      &gt; &gt;&gt;&gt; /share/apps/gromacs-4.5.3-single/bin/g453s-mdrun -v -s RNAP-C_pr.tpr<br />
      &gt; &gt;&gt;&gt; -e pr.edr -c RNAP-C_after_pr.gro -g prlog.log -cpo state_pr.cpt -nt 2<br />
      &gt; &gt;&gt;&gt; -dhdl dhdl-pr.xvg<br />
      &gt; &gt;&gt;&gt; date &gt;&gt;RNAP-C.joblog<br />
      &gt; &gt;&gt;&gt; echo g453s-grompp -f md.mdp -c RNAP-C_after_pr.gro -p RNAP-C.top -o<br />
      &gt; &gt;&gt;&gt; RNAP-C_md.tpr<br />
      &gt; &gt;&gt;&gt; /share/apps/gromacs-4.5.3-single/bin/g453s-grompp -f md.mdp -c<br />
      &gt; &gt;&gt;&gt; RNAP-C_after_pr.gro -p RNAP-C.top -o RNAP-C_md.tpr<br />
      &gt; &gt;&gt;&gt; date &gt;&gt;RNAP-C.joblog<br />
      &gt; &gt;&gt;&gt; echo g453s-mdrun -v -s RNAP-C_md.tpr -o RNAP-C_md.trr -c<br />
      &gt; &gt;&gt;&gt; RNAP-C_after_md.gro -g md.log -e md.edr -cpo state_md.cpt -nt 2 -dhdl<br />
      &gt; &gt;&gt;&gt; dhdl-md.xvg<br />
      &gt; &gt;&gt;&gt; /share/apps/gromacs-4.5.3-single/bin/g453s-mdrun -v -s RNAP-C_md.tpr<br />
      &gt; &gt;&gt;&gt; -o RNAP-C_md.trr -c RNAP-C_after_md.gro -g md.log -e md.edr -cpo<br />
      &gt; &gt;&gt;&gt; state_md.cpt -nt 2 -dhdl dhdl-md.xvg<br />
      &gt; &gt;&gt;&gt; date &gt;&gt;RNAP-C.joblog<br />
      &gt; &gt;&gt;&gt; echo g453s-grompp -f FEP.mdp -c RNAP-C_after_md.gro -p RNAP-C.top -o<br />
      &gt; &gt;&gt;&gt; RNAP-C_fep.tpr<br />
      &gt; &gt;&gt;&gt; /share/apps/gromacs-4.5.3-single/bin/g453s-grompp -f FEP.mdp -c<br />
      &gt; &gt;&gt;&gt; RNAP-C_after_md.gro -p RNAP-C.top -o RNAP-C_fep.tpr<br />
      &gt; &gt;&gt;&gt; date &gt;&gt;RNAP-C.joblog<br />
      &gt; &gt;&gt;&gt; echo g453s-mdrun -v -s RNAP-C_fep.tpr -o RNAP-C_fep.trr -c<br />
      &gt; &gt;&gt;&gt; RNAP-C_after_fep.gro -g fep.log -e fep.edr -cpo state_fep.cpt -nt 2<br />
      &gt; &gt;&gt;&gt; -dhdl dhdl-fep.xvg<br />
      &gt; &gt;&gt;&gt; /share/apps/gromacs-4.5.3-single/bin/g453s-mdrun -v -s RNAP-C_fep.tpr<br />
      &gt; &gt;&gt;&gt; -o RNAP-C_fep.trr -c RNAP-C_after_fep.gro -g fep.log -e fep.edr -cpo<br />
      &gt; &gt;&gt;&gt; state_fep.cpt -nt 2 -dhdl dhdl-fep.xvg<br />
      &gt; &gt;&gt;&gt;<br />
      &gt; &gt;&gt;&gt;&#160;<br />
      &gt; &gt;&gt;&gt;<br />
      &gt; &gt;&gt;&gt;&#160;<br />
      &gt; &gt;&gt;&gt;<br />
      &gt; &gt;&gt;&gt; I can add my .mdps but I do not think they are the problem since I<br />
      &gt; &gt;&gt;&gt; know it works on my personal iMac.<br />
      &gt; &gt;&gt;&gt;<br />
      &gt; &gt;&gt;&gt;&#160;<br />
      &gt; &gt;&gt;&gt;<br />
      &gt; &gt;&gt;&gt; Thank you,<br />
      &gt; &gt;&gt;&gt;<br />
      &gt; &gt;&gt;&gt; TJ Mustard<br />
      &gt; &gt;&gt;&gt; Email: mustardt@onid.orst.edu &lt;mailto:mustardt@onid.orst.edu&gt;<br />
      &gt; &gt;&gt;&gt;<br />
      &gt; &gt;&gt;<br />
      &gt; &gt;&#160;<br />
      &gt; &gt;<br />
      &gt; &gt; TJ Mustard<br />
      &gt; &gt; Email: mustardt@onid.orst.edu<br />
      &gt; &gt;<br />
      &gt;<br />
      &gt; --<br />
      &gt; ========================================<br />
      &gt;<br />
      &gt; Justin A. Lemkul<br />
      &gt; Ph.D. Candidate<br />
      &gt; ICTAS Doctoral Scholar<br />
      &gt; MILES-IGERT Trainee<br />
      &gt; Department of Biochemistry<br />
      &gt; Virginia Tech<br />
      &gt; Blacksburg, VA<br />
      &gt; jalemkul[at]vt.edu | (540) 231-9080<br />
      &gt; http://www.bevanlab.biochem.vt.edu/Pages/Personal/justin<br />
      &gt;<br />
      &gt; ========================================<br />
      &gt; --<br />
      &gt; gmx-users mailing list&#160; &#160; gmx-users@gromacs.org<br />
      &gt; http://lists.gromacs.org/mailman/listinfo/gmx-users<br />
      &gt; Please search the archive at http://www.gromacs.org/Support/Mailing_Lists/Search before posting!<br />
      &gt; Please don&#39;t post (un)subscribe requests to the list. Use the<br />
      &gt; www interface or send it to gmx-users-request@gromacs.org.<br />
      &gt; Can&#39;t post? Read http://www.gromacs.org/Support/Mailing_Lists<br />
      &gt;
    </div>

    <p style="margin: 0px;">&#160;</p>

    <p style="font-family: monospace; white-space: nowrap; margin: 5px 0px 5px 0px;">TJ Mustard<br />
    Email: mustardt@onid.orst.edu</p>
  </body>
</html>