大きすぎてメモリに収まらない行列を使用して大量のデータフィッティングを実行したい場合、どのツール/ライブラリを調べますか?具体的には、通常php + mysqlを使用してWebサイトのデータを実行している場合、妥当な時間で大規模なマトリックス操作を実行できるオフラインプロセスを作成することをどのように提案しますか?
考えられる答えは、「これらの分散行列アルゴリズムでこの言語を使用して、多くのマシンでreduceをマップする必要がある」などです。phpはこれに最適な言語ではないので、フローは他のオフラインプロセスがデータベースからデータを読み取り、学習を行い、phpが後で使用できる形式でルールを保存するようなものになると思います(サイトの他の部分はphpで構築されているため)。
これがこれを尋ねるのに適切な場所であるかどうかはわかりません(機械学習SEで尋ねたはずですが、ベータ版から抜け出すことはありませんでした)。