問題タブ [standardization]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
statistics - Median centralization and median standardization
I have doubts on making my samples comparable with each other. I have 3 replicates for each 2 group (Test and Control). I want to look at how proteins change. For that, I firstly did median centralization for each column of my replicate. Then, I applied a statistical test to compare 2 different conditions in order to find out which proteins change statistically. Then, I divided test group proteins to control and take the log2 value. At the end, I draw the volcano plot. (Since I am not comparing the samples, but proteins, applying the centralization is not a problem I think).
Do you think that my method is true? I know that when centralizing the data, standard deviation between each protein level is not standardized to 1. But, in which cases should I use median standardization and in which cases should I use median centralization. I have encountered many researchers have no idea about the median standardization and applying median scaling (dividing each replicate of data to median values). I am not much familiar with the concept, and have a little doubt about in which data set should I use normalization or standardization. Thank you in advance.
python - Python を使用した独自のスケールでの時系列の標準化と予測
プラットフォームのユーザー登録数の毎日の時系列データがあります。系列は非定常であり、対数変換を使用した後または差 (一次差または季節差) を取得した後でも、分散が一定ではないようです。
解決策として、定常性をもたらす方法として、標準化((x - ローリング平均)/ローリング標準偏差)と差分を使用しています。しかし、問題は、この定常系列にモデルを当てはめた後、元のスケールで将来の予測をどのように行うかということです。
その期間のローリング統計を知らずに、将来の予測のために標準化操作を元に戻すにはどうすればよいでしょうか?
r - glmnet パッケージの "standardize = " オプション
glmnet パッケージの標準化オプションについて 1 つ質問があります。
係数を意味のあるものにするために、回帰分析にはデータセットのスケーリングまたは標準化が必要であることを理解しています。
通常、線形回帰 (R で glm 関数を使用する場合など) だけを行う場合は、glm モデルを実行する前に、scale() 関数を使用してデータセットを手動でスケーリングします。
ただし、(正規化された回帰のために) glmnet パッケージを使用する場合、標準化オプションはデータセットを標準化し、それによって係数を意味のある (比較可能な) ものにするようです。私は正しいですか?
これが正しければ、次のコードを実行するとします。そして、変数 "x3" が最大の係数 (絶対値スケール) を持っていることがわかります。それでは、変数「x3」がカテゴリを識別する上で最も重要な変数であると結論付けることができますか???
どなたかご意見お待ちしております!!ありがとう。