Hello Haskellers,<br><br>I am new to programming in Haskell and I am having trouble understanding exactly when statements become evaluated.  My goal is to try and measure how long a computation takes without having to use a show function.  The code I am trying to use is below (taken in part from RWH chapter 25)<br>
<br>----------------------------------<br>import Data.List (foldl&#39;)<br>import Data.Time.Clock (diffUTCTime, getCurrentTime)<br>import Control.DeepSeq (deepseq)<br><br>mean :: [Double] -&gt; Double<br>mean xs = s / fromIntegral n where<br>
    (n,s) = foldl&#39; k (0,0) xs<br>    k (n,s) x = n `seq` s `seq` (n+1,s+x)<br><br>main = do<br>  let as = [1..1e7] :: [Double]<br>  start &lt;- getCurrentTime<br>  let meanOver2 = deepseq (mean as) `seq` (mean as) / fromIntegral 2<br>
  end &lt;- getCurrentTime<br>  putStrLn (show (end `diffUTCTime` start))<br>  putStrLn (show meanOver2)<br clear="all">-------------------------------------<br><br>My understanding of deepseq was that it evaluates (mean as) completely before continuing, and then the show would not take any time, but instead all the time is spent in the show meanOver2 function.  I feel like I am missing something fundamental here.  Any suggestions?  Thanks for your help.<br>
<br>Frank<br>