大規模なデータセットを R に取り込み、それが大きすぎて RAM に格納できない場合の対処法については、さまざまな Revolution R モジュールなどを通じて、かなりの量のサポートがあります。しかし、 R 内で作成され、RAM に格納するには大きすぎるデータ セットを処理する方法はありますか?それ、そして続けますか?
たとえば、大規模なシミュレーションを実行したり、SurvSplit() のようなものを使用して、1 から N までの生存時間で単一の観測を取得し、それを N 個の個別の観測に分割したりしますか?