74

結果の返されるリストが 1000 に制限されていることに気付きました。ドメイン (HUGE ドメイン) に 1000 を超えるグループがあります。どうすれば 1000 を超えるレコードを取得できますか? 後の記録から始めることはできますか? 複数の検索に分割できますか?

これが私のクエリです:

DirectoryEntry dirEnt = new DirectoryEntry("LDAP://dhuba1kwtn004");
string[] loadProps = new string[] { "cn", "samaccountname", "name", "distinguishedname" };
DirectorySearcher srch = new DirectorySearcher(dirEnt, "(objectClass=Group)", loadProps);
var results = srch.FindAll();

srch.SizeLimit = 2000;を設定しようとしました。、しかし、それはうまくいかないようです。何か案は?

4

2 に答える 2

185

すべての結果を取得するには、DirectorySearcher.PageSize をゼロ以外の値に設定する必要があります。

ところで、使い終わったら DirectorySearcher も破棄する必要があります

using(var srch = new DirectorySearcher(dirEnt, "(objectClass=Group)", loadProps))
{
    srch.PageSize = 1000;
    var results = srch.FindAll();
}

API ドキュメントはあまり明確ではありませんが、基本的には次のとおりです。

  • ページ検索を実行すると、SizeLimit は無視され、FindAll によって返された結果を反復処理すると、一致するすべての結果が返されます。結果は一度に 1 ページずつサーバーから取得されます。上記で 1000 の値を選択しましたが、必要に応じてより小さい値を使用できます。トレードオフは、小さい PageSize を使用すると、結果の各ページがより速く返されますが、多数の結果を反復処理するときにサーバーへの呼び出しがより頻繁に必要になることです。

  • デフォルトでは、検索はページングされません (PageSize = 0)。この場合、SizeLimit までの結果が返されます。

Biri が指摘したように、FindAll によって返された SearchResultCollection を破棄することが重要です。そうしないと、DirectorySearcher.FindAll に関する MSDN ドキュメントの備考セクションで説明されているように、メモリ リークが発生する可能性があります。

.NET 2.0 以降でこれを回避する方法の 1 つは、SearchResultCollection を自動的に破棄するラッパー メソッドを作成することです。これは、次のようになります (または、.NET 3.5 の拡張メソッドである可能性があります)。

public IEnumerable<SearchResult> SafeFindAll(DirectorySearcher searcher)
{
    using(SearchResultCollection results = searcher.FindAll())
    {
        foreach (SearchResult result in results)
        {
            yield return result;        
        } 
    } // SearchResultCollection will be disposed here
}

これを次のように使用できます。

using(var srch = new DirectorySearcher(dirEnt, "(objectClass=Group)", loadProps))
{
    srch.PageSize = 1000;
    var results = SafeFindAll(srch);
}
于 2008-09-18T07:15:45.060 に答える