3

私は、移植可能である必要があり、いくつかのシナリオでは数億のエンティティを持つ新しいプロジェクトについて述べています。

Azure が Hadoop を取得したことで、もちろん、ビッグ データ シナリオに注目しました。しかし、100 万行未満の小さなデータ シナリオもあります。

Entity Frameworkコードファーストは、これを設計する方法ですが、もちろん混合でhadoopが必要になると、物事が複雑になる可能性があります(もちろん、Entity Frameworkは、小さなデータセット用のより単純なストレージプロバイダーを提供するために使用されています)

質問は、このミックスの経験がある人はいますか?

これが良いアプローチであるかどうか、そうでない場合は、より良い方法があるかどうかを誰でも推奨できますか?

4

1 に答える 1

4

Entity Framework コードに基づくかなり大規模なシステムでの作業 まず、私が EF4 で作業しており、5 にアップグレードすることはできないという警告とともに、マイレージは異なる可能性があり、結果はあなたが意図することによって大きく影響を受けることになります.私の経験では、EF は大量のデータを非常にうまく処理できず、非常に柔軟性がありません。そのため、何らかの方法で標準の動作を変更する必要がある場合、厄介なハッキングが必要になる可能性が高くなります。回避策、およびパフォーマンスは驚くべきものではありません。EF が期待していることとまったく異なることを実行したい場合は、壁にぶつかる可能性があります。

比較的単純で小規模な Asp.Net MVC セットアップを設計することを考えていた場合、EF は本当に良い選択だと思います。より大きな柔軟性が必要な場合や、基本的な操作を超えることを計画している大規模な操作の場合、NHibernate のようなものがより適切に機能することがあります。私はそのような経験はありませんが、両方を使用したことがある同僚は NHibernate を好む傾向があります。(比較に関する簡単な記事- 少し古いので、EF はそこにあるすべてのポイントではなく、いくつかのポイントに対処しています。もちろん、設計によっても異なります。)

トラフィックの多いものや珍しいものについては、適切なパフォーマンスを達成したり、適切なデータを見つけたりするために、とにかく独自のデータ アクセスをロールバックする必要があるかもしれません。間違いなく、EF を使って作業することを計画している場合は、本格的なプロトタイピングを行って、必要なことが確実に実行されるようにすることを強くお勧めします。

于 2013-04-18T09:20:53.993 に答える