8

私は現在、Haskell で並列にプログラムする方法を理解しようとしています。Simon Peyton Jones と Satnam Singh による論文「Haskell における並列および並行プログラミングのチュートリアル」をフォローしています。ソースコードは次のとおりです。

module Main where
import Control.Parallel
import System.Time

main :: IO ()
main = do
      putStrLn "Starting computation....."
      t0 <- getClockTime
      pseq r1 (return())
      t1 <- getClockTime
      putStrLn ("sum: " ++ show r1)
      putStrLn ("time: " ++ show (secDiff t0 t1) ++ " seconds")
      putStrLn "Finish."

r1 :: Int
r1 = parSumFibEuler 38 5300

-- This is the Fibonacci number generator
fib :: Int -> Int
fib 0 = 0
fib 1 = 1
fib n = fib (n-1) + fib (n-2)

-- Gets the euler sum
mkList :: Int -> [Int]
mkList n = [1..n-1]

relprime :: Int -> Int -> Bool
relprime x y = gcd x y == 1

euler :: Int -> Int
euler n = length $ filter (relprime n) (mkList n)

sumEuler :: Int -> Int
sumEuler = sum.(map euler).mkList

-- Gets the sum of Euler and Fibonacci (NORMAL)
sumFibEuler :: Int -> Int -> Int
sumFibEuler a b = fib a + sumEuler b

-- Gets the sum of Euler and Fibonacci (PARALLEL)
parSumFibEuler :: Int -> Int -> Int
parSumFibEuler a b =
  f `par` (e `pseq`(f+e))
    where
    f = fib a
    e = sumEuler b

-- Measure time
secDiff :: ClockTime -> ClockTime -> Float
secDiff (TOD secs1 psecs1) (TOD secs2 psecs2)
  = fromInteger (psecs2 -psecs1) / 1e12 + fromInteger (secs2- secs1)

次のコマンドでコンパイルしました。

ghc --make -threaded Main.hs

a) 1 つのコアを使用して実行しました。

./Main +RTS -N1

b) 2 つのコアを使用して実行しました。

./Main +RTS -N2

ただし、1 つのコアは 53.556 秒実行されました。一方、2 つのコアは 73.401 秒でした。2 コアが実際に 1 コアよりも遅く実行される方法がわかりません。この小さなプログラムにはメッセージ パッシング オーバーヘッドが大きすぎるのではないでしょうか? 紙は鉱山とはまったく異なる結果をもたらします。以下は、出力の詳細です。

1 コアの場合:

Starting computation.....
sum: 47625790
time: 53.556335 seconds
Finish.
  17,961,210,216 bytes allocated in the heap
      12,595,880 bytes copied during GC
         176,536 bytes maximum residency (3 sample(s))
          23,904 bytes maximum slop
               2 MB total memory in use (0 MB lost due to fragmentation)

                                    Tot time (elapsed)  Avg pause  Max pause
  Gen  0     34389 colls,     0 par    2.54s    2.57s     0.0001s    0.0123s
  Gen  1         3 colls,     0 par    0.00s    0.00s     0.0007s    0.0010s

  Parallel GC work balance: -nan (0 / 0, ideal 1)

                        MUT time (elapsed)       GC time  (elapsed)
  Task  0 (worker) :    0.00s    (  0.00s)       0.00s    (  0.00s)
  Task  1 (worker) :    0.00s    ( 53.56s)       0.00s    (  0.00s)
  Task  2 (bound)  :   50.49s    ( 50.99s)       2.52s    (  2.57s)

  SPARKS: 0 (0 converted, 0 overflowed, 0 dud, 0 GC'd, 0 fizzled)

  INIT    time    0.00s  (  0.00s elapsed)
  MUT     time   50.47s  ( 50.99s elapsed)
  GC      time    2.54s  (  2.57s elapsed)
  EXIT    time    0.00s  (  0.00s elapsed)
  Total   time   53.02s  ( 53.56s elapsed)

  Alloc rate    355,810,305 bytes per MUT second

  Productivity  95.2% of total user, 94.2% of total elapsed

gc_alloc_block_sync: 0
whitehole_spin: 0
gen[0].sync: 0
gen[1].sync: 0

2 コアの場合:

Starting computation.....
sum: 47625790
time: 73.401146 seconds
Finish.
  17,961,210,256 bytes allocated in the heap
      12,558,088 bytes copied during GC
         176,536 bytes maximum residency (3 sample(s))
         195,936 bytes maximum slop
               3 MB total memory in use (0 MB lost due to fragmentation)

                                    Tot time (elapsed)  Avg pause  Max pause
  Gen  0     34389 colls, 34388 par    7.42s    4.73s     0.0001s    0.0205s
  Gen  1         3 colls,     3 par    0.01s    0.00s     0.0011s    0.0017s

  Parallel GC work balance: 1.00 (1432193 / 1429197, ideal 2)

                        MUT time (elapsed)       GC time  (elapsed)
  Task  0 (worker) :    1.19s    ( 40.26s)      16.95s    ( 33.15s)
  Task  1 (worker) :    0.00s    ( 73.40s)       0.00s    (  0.00s)
  Task  2 (bound)  :   54.50s    ( 68.67s)       3.66s    (  4.73s)
  Task  3 (worker) :    0.00s    ( 73.41s)       0.00s    (  0.00s)

  SPARKS: 0 (0 converted, 0 overflowed, 0 dud, 0 GC'd, 0 fizzled)

  INIT    time    0.00s  (  0.00s elapsed)
  MUT     time   68.87s  ( 68.67s elapsed)
  GC      time    7.43s  (  4.73s elapsed)
  EXIT    time    0.00s  (  0.00s elapsed)
  Total   time   76.31s  ( 73.41s elapsed)

  Alloc rate    260,751,318 bytes per MUT second

  Productivity  90.3% of total user, 93.8% of total elapsed

gc_alloc_block_sync: 12254
whitehole_spin: 0
gen[0].sync: 0
gen[1].sync: 0
4

1 に答える 1

7
r1 = sumFibEuler 38 5300

私はあなたが意味したと信じています

r1 = parSumFibEuler 38 5300


私の構成では(parSumFibEuler 45 8000実行が1回のみ):

  • N1=126.83sの場合
  • N2=115.46sの場合

fibfunction は よりもはるかに多くの CPU を消費すると思われますsumEuler。それは -N2 の低い改善を説明するでしょう。あなたの状況では、仕事を盗むことはありません。

メモ化を使用すると、フィボナッチ関数ははるかに優れたものになりますが、それはあなたが試したかったことではないと思います.

編集: コメントで述べたように、-N2 を使用すると、2 つのコアを使用できるため、多くの中断があると思います。
私の構成(4コア)の例sum $ parMap rdeepseq (fib) [1..40]

  • -N1 を使用すると、約 26 秒かかります
  • -N2 を使用すると、約 16 秒かかります
  • -N3 を使用すると、約 13 秒かかります
  • -N4 を使用すると、約 30 秒かかります (Haskell プログラムだけがここにあるわけではありません)。

ここから:

マシン内のすべてのプロセッサを使用する場合は注意してください。一部のプロセッサが他のプログラムによって使用されている場合、実際にはパフォーマンスが向上するどころか、悪影響を受ける可能性があります。

于 2012-11-02T04:12:15.920 に答える