迅速にスケールアップするには、AWS 自動スケーリングをどのように設定しますか? ELB を使用して AWS 自動スケーリング グループをセットアップしました。新しいインスタンスが追加されてオンラインになるまでに数分かかることを除けば、すべて正常に機能しています。Puppet と自動スケーリングに関する投稿で、次のような記事を見つけました。
ノードのグループに使用する AMI がすでに最新の場合、スケーリングにかかる時間を数分から数秒に短縮できます。
http://puppetlabs.com/blog/rapid-scaling-with-auto-generated-amis-using-puppet/
これは本当ですか?スケーリング時間を数秒に短縮できますか? パペットを使用すると、パフォーマンスが向上しますか?
また、小さなインスタンスは大きなインスタンスよりも速く起動することも読みました。
スモール インスタンス 1.7 GB のメモリ、1 つの EC2 コンピューティング ユニット (1 つの EC2 コンピューティング ユニットを備えた 1 つの仮想コア)、160 GB のインスタンス ストレージ、CentOS 5.3 AMI の基本インストールを備えた 32 ビット プラットフォーム
インスタンスの起動から利用可能になるまでの時間: 5 ~ 6 分 us-east-1c
L インスタンス 7.5 GB のメモリ、4 つの EC2 コンピューティング ユニット (それぞれ 2 つの EC2 コンピューティング ユニットを備えた 2 つの仮想コア)、850 GB のインスタンス ストレージ、CentOS 5.3 AMI の基本インストールを備えた 64 ビット プラットフォーム
インスタンスの起動から利用可能になるまでの時間:
11 ~ 18 分 us-east-1c両方とも、Amazon のツールを使用してコマンド ラインから開始されました。
http://www.philchen.com/2009/04/21/how-long-does-it-take-to-launch-an-amazon-ec2-instance
この記事は古いものであり、c1.xlarge インスタンスの起動に 18 分もかからないことに注意してください。それにもかかわらず、50 個のマイクロ インスタンス (100% 容量増加のアップ スケール ポリシー) を使用して自動スケーリング グループを構成することは、20 個のラージ インスタンスを使用する場合よりも効率的でしょうか? または、2 つの自動スケーリング グループを作成する可能性があります。1 つは起動時間を短縮するためのマイクロ グループで、もう 1 つは数分後に CPU のうなり声を追加するための大きなインスタンスです。他のすべてが等しい場合、t1.micro は c1.xlarge よりもどれくらい速くオンラインになりますか?