問題タブ [spread]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
r - tidyr の spread() が因子レベルを処理する方法
私は自分のデータを操作していて、プロセスのある時点で何か間違ったことをしたことに気付きました。問題を調査したところ、問題はパッケージspread()
内の次の動作に帰着しました。tidyr
ここに実例があります。次のようなデータフレームがあるとします。
私がやりたかったのは、この長いフォーマットのデータ フレームをワイド フォーマットに変換することでした。spread()
そして、私は行く方法だと思いました。しかし、結果は私が期待したものではありませんでした。
factor1 が "A" で factor2 が "level2" の場合、値は 2 のはずですが、結果のワイド フォーマットは 3 になります。明らかに、num は factor2 のアルファベット順 (level1 > level10 > level2) で並べられ、ワイドフォーマット。ただし、その場合、factor2 ラベルは元のデータ フレームに表示される順序と同じ順序を保持します (レベル 1 > レベル 2 > レベル 10)。
なぜこれが起こるのか(および/または関連情報を見つけることができる場所)を誰か説明できますか?
unity3d - Unity NavMesh 複数の敵が異なる経路を取るようにする
複数の敵がすべて同じターゲットに向かって移動するゲームに取り組んでいます。私が抱えている問題は、すべての敵がこのターゲットに到達するために同じ経路をたどっているため、非現実的な敵の「群れ」が発生することです. 私の質問はこれです:どうすればそれらを少し広げて混雑効果を生み出すことができますか? 現在、Unity の組み込み NavMesh システムを使用しています。ある敵が使用するパスにペナルティを課して、他の敵が別のパスを取るように促す方法があるに違いないことは知っていますが、それを実装する方法がわかりません。どんな助けでも大歓迎です!(また、コードは C# で最もよく理解できますが、JavaScript は多少理解できます)
matlab - 加重乱数 MATLAB を使用して、ある行列要素を別の行列要素に拡散する
そのため、poissrnd で生成された 1 つの行列要素を、より大きな (より広い?) 確率関数 (たとえば、異なる重みを持つ 100 の異なる可能性) を使用して別の行列要素に広げて、それらの両方をプロットし、拡散後の変動を確認しようとしていました。降りた。正しく動作しない (変動が大きくなる) ことを確認した後、非常に単純な例で何が間違っていたのかを特定しようとしました。本当に長い間テストした後でも、何が悪いのか理解できません。例は次のようになります。
- poissrnd でベクトルを生成し、拡散用のベクトルを生成します (最初はゼロで埋められます)。
- poiss ベクトルの各要素は、対応する重み [0.2,0.5,0.2] を持つ可能なオプション [1,2,3] から生成する数 (要素値の 0.1) を教えてくれます。
- 取得したものを 3 つの要素で別のベクトルに展開しました。対応する要素 (k 番目のもの)、対応する要素の前に 1 つ、対応する要素の後に 1 つです (たとえば、k=3 の場合、要素は次のように展開する必要があります。ほとんどは別のベクトルの 3 番目の要素に移動し、残りは 2 番目と 1 番目の要素に移動する必要があります)
- 0.1*poiss ベクトルと拡散後のベクトルの両方をプロットして、変動が減少したかどうかを比較します
加重された数値を生成する方法は、このスレッドからのものです: MATLAB での加重乱数
これは私が使用しているコードです:
まだまだ変動が大きくて、何が悪いのかわからない・・・ この場合、加重値の出し方がおかしいのでしょうか?そうじゃないみたいだから。最初のベクトルからデータを蓄積する方法も問題ないようです。私がそれを行うことができる別の方法はありますか(そのため、「より大きな」確率関数を使用するように最適化できます)?
私のひどい英語でごめんなさい。
[編集]:
ここに私が何を意味したかを示す簡単な写真があります(理解できることを願っています)
r - tidyr での Spread との混同
次のようなデータフレームがあります。
データフレームのヘッドは次のようになります。
私がやりたいのは、このフォーマットをワイドフォーマットに変換することで、spread
関数を で使用しようとしましたtidyr
。
関数を使用する前に、spread
行を削除するために新しい変数を作成しましたduplication error
。
さて、私はspread
次のように関数を使用しました:
それはうまくいくようですが、私が期待したものとはまったく異なります。はsample_date
POSIXct オブジェクトであり、変換されたときにhour, minute and second
表示されないため、出力が乱雑に見えます。
列名は正しいようですが、値は正しくありません。日付ごとに、 の値がありますconductivity, dissolved oxygen, salinity etc..
。この問題を解決するために何をする必要があるか教えてください。
アップデート:
新しいデータが更新されました
次に、Akrun が推奨する式を使用しました。
大規模なデータセットを投稿して申し訳ありません。
私が得た出力は次のとおりです。
mysql - スプレッドツールキットを使用した Galera クラスターの動作に関する混乱
ガレラ星団に興味があります。Galera チームは、さまざまな GCS に対応する柔軟なアダプター ベースの設計を行っていると主張しています。
http://galeracluster.com/products/technology/彼らのウェブサイトには、「多くの gcs 実装を適応させることができます。私たちは拡散と社内実装を実験しました: vsbes とジェミニ」と述べていますが、実装に関するリソースをオンラインで見つけることはほとんどできません。スプレッド (分散ツールキット) と Galera クラスターを組み合わせる方法。
小さなgaleraクラスターをセットアップすると、うまく機能します。1 つの Mysql を更新すると、他の mysql も更新されました。Galera がスプレッドを扱う必要がある理由とその方法について混乱しています。ガレラでスプレッドを実装する方法を知っている人はいますか?
どうもありがとう。
algorithm - Pythonを使用してエリア内の座標の広がりを計算/測定する方法
私の質問は少し漠然としています。このように言えば:
地域 (都市) に一連の座標 (緯度と経度) があり、それらの分離を定量化したいと考えています。たとえば、すべて同じ場所にいる場合はスコアが低く (実際にはこれが最も低いスコアになるはずです)、距離が離れている場合はスコアが高くなります。たとえば、一連の電荷が円形の導電板上にどのように配置されるかを想像すると、それらの分離が最大になるはずです。この状態は最高の「分離」スコアを取得します。
この地域には何千もの座標があるので、それを計算するための非常に効率的な方法を見つけたいと思っています。私が考えている別の問題は次のとおりです。私の座標はすべて緯度と経度であり、メートル単位の距離を対応して反映することはできません(つまり、緯度が異なると、同じ経度差がメートル単位の異なる距離に対応します)。スプレッド計算?
それで、最も数学的に立派な方法で、これを行うために私が使用できるアルゴリズム、アプローチ、または理論を知っている人はいますか? 私はこの概念と Python の初心者です。アイデアを教えていただければ幸いです。
皆さんありがとう、グラディス
r - スプレッドを使用して、tidyr で 2 つの値列を作成する
このようなデータ フレームがあります (リンクを参照)。以下で生成される出力を取得し、さらに一歩進んで、トーン変数を n 変数と平均変数の両方に分散させたいと思います。このトピックはこれに関係しているようですが、うまくいきません: dcast と同様に、tidyr で複数の列にスプレッドを使用することは可能ですか?
最終的なテーブルの 1 つの列にソース変数を配置してから、tone-n 変数とtone-avg 変数を列に配置したいと思います。したがって、列ヘッダーを「ソース」-「For - n」-「Against - n」「For -Avg」-「Against - Avg」にしたいと思います。これは公開用であり、さらなる計算用ではありません。データを提示するためのものです。この方法でデータを提示する方が直感的に思えます。ありがとうございました。