問題タブ [pruning]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
database - Django でデータベース レコードの数または期間を制限する
カスタム ログとクエリ データを保存する Django モデルがいくつかありますが、これらのデータを限られた期間 (つまり、30 日間の検索データまたは最大 10,000 データベース行のログ データ) だけ保持したいと考えています。モデルは視覚化ビューで使用されるため、ファイルに保存して logrotate で処理できるものではありません。
これを処理するためにDjangoに組み込まれているものはありますか?
SQLAlchemy を使用して定期的にデータベースをプルーニングする cron ジョブを作成したり、アクセスしたときに (ビュー コードを介して) レコードをプルーニングする管理者専用ページを作成したりすることは問題ありませんが、Django に既に組み込まれている制限された処理を処理するものがある場合は、それを使用する方が理にかなっているかもしれません。
algorithm - プルーンと検索アルゴリズムに問題がある
ステップ 4 までは入力を理解していますが (私の理解が正しければ)、ステップ 5 は少し混乱しています。+ |S 2 | ≥ k -- それが絶対値なのか何なのかさえわかりません。繰り返しもわかりません。うーん
python - Python - shutil.copytree 関数の後の空のディレクトリとサブディレクトリ
これは私が書いているプログラムの一部です。目標は、たとえば G:\ (コマンド ラインで -e G:\ で指定) にあるすべての GPX ファイルを抽出することです。「エクスポート」フォルダーを作成し、そこに一致する拡張子を持つすべてのファイルを再帰的にダンプします。素晴らしい作品、友人がそれを書くのを手伝ってくれました!! 問題: GPX ファイルを含まないディレクトリの空のディレクトリとサブディレクトリ。
プログラムの後半で、次の呼び出しがありますextractpath()
。
したがって、上記の抽出は機能します。ただし、len
上記の関数呼び出しは、空のディレクトリの作成を防ぐように設計されており、そうではありません。最善の方法は、エクスポート後os.rmdir
にどうにかすることであり、エラーが発生していない間、フォルダーは残ります。
では、GPX を含むディレクトリのみがそこにあるように、この Exports フォルダーを正常にプルーニングするにはどうすればよいでしょうか? :)
machine-learning - データセットから頻度の低い単語と頻度の高い単語を削除する方法は?
データセットから高頻度および低頻度の用語を削除できるツールはありますか?
dynamic-programming - 枝刈りされた動的計画法
現在、文字列の配置比較を行っています。剪定によってDPを最適化する方法について混乱しています。
DP は、マトリックス/テーブルとして表すことができます。始点は (0, 0) です。たとえば、(3, 4) の要素は削除され、その値は -1 または null としてマークされます。しかし、位置 (4, 4)、(3, 5)、および (4, 5) を計算するときは、(3, 4) の値が無効 (プルーニング) か有効 (ない) かを確認する if ステートメントが必要です。剪定)。プルーニング機能により余分な実行時間が発生するため、この実装は時間を節約できますか???
java - Java デシジョン ツリー -- 削減されたエラー プルーニング バリデーション セット
エラー除去を削減するための個別の検証セットを設定できる、デシジョン ツリーのトレーニングに使用できる無料の Java ライブラリはありますか?
Weka (私が現在使用しているもの) の場合、データのランダムなサブセットを使用した n 倍交差検証のみが可能です。ただし、時系列データを扱っているため、データの前半をトレーニング データとして使用し、後半 (将来のデータ) を検証/プルーニングに使用すると効果的です。
n 倍の検証では、過剰適合は深刻な問題であり、約 50% の精度をかろうじて上回ります。