21

コード:

static void MultipleFilesToSingleFile(string dirPath, string filePattern, string destFile)
{
    string[] fileAry = Directory.GetFiles(dirPath, filePattern);

    Console.WriteLine("Total File Count : " + fileAry.Length);

    using (TextWriter tw = new StreamWriter(destFile, true))
    {
        foreach (string filePath in fileAry)
        {
            using (TextReader tr = new StreamReader(filePath))
            {
                tw.WriteLine(tr.ReadToEnd());
                tr.Close();
                tr.Dispose();
            }
            Console.WriteLine("File Processed : " + filePath);
        }

        tw.Close();
        tw.Dispose();
    }
}

これは非常に遅いため、最適化する必要があります。平均サイズが 40 ~ 50 Mb の XML ファイルの 45 個のファイルで 3 分かかります。

注意: 平均 45 MB の 45 個のファイルは一例にすぎません。これは、数千のサイズnのファイルの数であり、平均 128 Kb になる可能性があります。要するに、それは変化する可能性があります。mnm

最適化に関する見解を教えてください。

4

6 に答える 6

51

一般的な答え

Stream.CopyTo(Stream destination)メソッドを使用しないのはなぜですか?

private static void CombineMultipleFilesIntoSingleFile(string inputDirectoryPath, string inputFileNamePattern, string outputFilePath)
{
    string[] inputFilePaths = Directory.GetFiles(inputDirectoryPath, inputFileNamePattern);
    Console.WriteLine("Number of files: {0}.", inputFilePaths.Length);
    using (var outputStream = File.Create(outputFilePath))
    {
        foreach (var inputFilePath in inputFilePaths)
        {
            using (var inputStream = File.OpenRead(inputFilePath))
            {
                // Buffer size can be passed as the second argument.
                inputStream.CopyTo(outputStream);
            }
            Console.WriteLine("The file {0} has been processed.", inputFilePath);
        }
    }
}

バッファサイズ調整

上記のメソッドはオーバーロードされていることに注意してください。

2 つのメソッド オーバーロードがあります。

  1. CopyTo(Stream destination).
  2. CopyTo(Stream destination, int bufferSize).

2 番目のメソッドのオーバーロードは、パラメーターを使用してバッファー サイズを調整しbufferSizeます。

于 2013-01-25T20:47:37.380 に答える
2

BlockingCollectionを使用して読み取りを行うので、読み取りと書き込みを同時に行うことができます。
ハードウェアの競合を避けるために、明らかに別の物理ディスクに書き込む必要があります。このコードは順序を保持します。
読み取りは書き込みよりも高速になるため、並列読み取りは必要ありません。
繰り返しになりますが、読み取りはコレクションのサイズをより速く制限するため、読み取りは必要以上に書き込みよりも先に進むことはありません。
現在のファイルを書き込みながら次のシングルを並行して読み取る簡単なタスクには、ファイルサイズが異なるという問題があります。小さなファイルを書き込む方が、大きなファイルを読み取るよりも高速です。

このパターンを使用して、T1でテキストを読み取って解析し、T2でSQLに挿入します。

public void WriteFiles()
{
    using (BlockingCollection<string> bc = new BlockingCollection<string>(10))
    {
        // play with 10 if you have several small files then a big file
        // write can get ahead of read if not enough are queued

        TextWriter tw = new StreamWriter(@"c:\temp\alltext.text", true);
        // clearly you want to write to a different phyical disk 
        // ideally write to solid state even if you move the files to regular disk when done
        // Spin up a Task to populate the BlockingCollection
        using (Task t1 = Task.Factory.StartNew(() =>
        {
            string dir = @"c:\temp\";
            string fileText;      
            int minSize = 100000; // play with this
            StringBuilder sb = new StringBuilder(minSize);
            string[] fileAry = Directory.GetFiles(dir, @"*.txt");
            foreach (string fi in fileAry)
            {
                Debug.WriteLine("Add " + fi);
                fileText = File.ReadAllText(fi);
                //bc.Add(fi);  for testing just add filepath
                if (fileText.Length > minSize)
                {
                    if (sb.Length > 0)
                    { 
                       bc.Add(sb.ToString());
                       sb.Clear();
                    }
                    bc.Add(fileText);  // could be really big so don't hit sb
                }
                else
                {
                    sb.Append(fileText);
                    if (sb.Length > minSize)
                    {
                        bc.Add(sb.ToString());
                        sb.Clear();
                    }
                }
            }
            if (sb.Length > 0)
            {
                bc.Add(sb.ToString());
                sb.Clear();
            }
            bc.CompleteAdding();
        }))
        {

            // Spin up a Task to consume the BlockingCollection
            using (Task t2 = Task.Factory.StartNew(() =>
            {
                string text;
                try
                {
                    while (true)
                    {
                        text = bc.Take();
                        Debug.WriteLine("Take " + text);
                        tw.WriteLine(text);                  
                    }
                }
                catch (InvalidOperationException)
                {
                    // An InvalidOperationException means that Take() was called on a completed collection
                    Debug.WriteLine("That's All!");
                    tw.Close();
                    tw.Dispose();
                }
            }))

                Task.WaitAll(t1, t2);
        }
    }
}

BlockingCollectionクラス

于 2013-01-25T16:20:00.267 に答える
2

あなたができるいくつかのこと:

  • 私の経験では、デフォルトのバッファサイズを最大約120Kまで増やすことができ、すべてのストリームに大きなバッファを設定することが最も簡単で最も顕著なパフォーマンスブースターになると思います。

    new System.IO.FileStream("File.txt", System.IO.FileMode.Open, System.IO.FileAccess.Read, System.IO.FileShare.Read, 150000);
    
  • Streamクラスではなく、クラスを使用してくださいStreamReader

  • 内容を大きなバッファに読み込み、一度に出力ストリームにダンプします。これにより、小さなファイルの操作が高速化されます。
  • 冗長なclose/disposeの必要はありません:usingステートメントがあります。
于 2013-01-25T15:35:31.827 に答える
2

1 つのオプションは、copyコマンドを利用することです。

何かのようなもの:

static void MultipleFilesToSingleFile(string dirPath, string filePattern, string destFile)
{
    var cmd = new ProcessStartInfo("cmd.exe", 
        String.Format("/c copy {0} {1}", filePattern, destFile));
    cmd.WorkingDirectory = dirPath;
    cmd.UseShellExecute = false;
    Process.Start(cmd);
}
于 2013-01-25T16:06:50.770 に答える
0
    // Binary File Copy
    public static void mergeFiles(string strFileIn1, string strFileIn2, string strFileOut, out string strError)
    {
        strError = String.Empty;
        try
        {
            using (FileStream streamIn1 = File.OpenRead(strFileIn1))
            using (FileStream streamIn2 = File.OpenRead(strFileIn2))
            using (FileStream writeStream = File.OpenWrite(strFileOut))
            {
                BinaryReader reader = new BinaryReader(streamIn1);
                BinaryWriter writer = new BinaryWriter(writeStream);

                // create a buffer to hold the bytes. Might be bigger.
                byte[] buffer = new Byte[1024];
                int bytesRead;

                // while the read method returns bytes keep writing them to the output stream
                while ((bytesRead =
                        streamIn1.Read(buffer, 0, 1024)) > 0)
                {
                    writeStream.Write(buffer, 0, bytesRead);
                }
                while ((bytesRead =
                        streamIn2.Read(buffer, 0, 1024)) > 0)
                {
                    writeStream.Write(buffer, 0, bytesRead);
                }
            }
        }
        catch (Exception ex)
        {
            strError = ex.Message;
        }
    }
于 2019-04-15T20:45:53.213 に答える