問題タブ [cloudfiles]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - 可能であれば、pyrax は servicenet を使用しますか、それとも手動で設定する必要がありますか?
Rackspace Cloud Files を操作するために pyrax を使用しています。publicnet の代わりに servicenet を使用するように pyrax に強制できますか、それとも自動的に選択されますか?
django-cumulus 設定にはsettings.CUMULUS['SERVICENET']、それを処理するパラメーターがありますが、このパラメーターを pyrax 自体に設定する方法がわかりませんでした。
pyrax に servicenet を使用するようにどこで指示できますか?
java - jclouds 1.5 から 1.7 への移行後、rackspace cloudfiles が ContainerNotFoundException をスローする
使用している jclouds ライブラリをバージョン 1.5 から 1.7 に更新しようとしています。
次の方法で API にアクセスします: https://github.com/jclouds/jclouds-examples/tree/master/rackspace/src/main/java/org/jclouds/examples/rackspace/cloudfiles
RestContext は 1.6 以降非推奨です。 http://demobox.github.io/jclouds-maven-site-1.6.0/1.6.0/jclouds-multi/apidocs/org/jclouds/rest/RestContext.html
私はそれをこのように機能させようとしました:
実行時にファイルをアップロードすると、次のエラーが発生します。
jclouds github プロジェクトの例では、非推奨のアプローチを使用しているようです (上記のリンク)。
これを解決する方法はありますか?代替案はありますか?
ruby-on-rails - Rails + Paperclips + Rackspace CloudFiles とプライベート CDN
Paperclip を使用してアップロードされたファイルを処理する Rails アプリケーションがあり、現在 Rackspace によってホストされています。
現在、アプリケーションは単一のサーバーでホストされており、ロード バランサー、アプリケーション サーバー、および別のデータベース サーバーを使用して、よりスケーラブルなソリューションを構築しています。最後に行う必要があるのは、アップロードされたアセットのソリューションです。Rackspace の CloudFiles を使用しようとしましたが、ペーパークリップと CloudFiles を使用する唯一の方法は、それらをパブリック CDN に置くことです。これは使用できません。ファイルにアクセスするには、ユーザーを認証する必要があります。Amazon S3 に目を向ける前に、一時 URL のオプションがあるため、Paperclip で CloudFiles を使用し、ファイルにアクセスするために認証を要求する方法を知っていますか?
ヘルプ、ヒント、Google 検索、リンク、または解決策は大歓迎です。
rackspace - cloudfiles オブジェクトのサイズにアクセスしていますか?
オブジェクト全体を取得せずに cloudfiles オブジェクトのサイズを取得することは可能ですか?
バイト サイズを知りたいファイルが 500,000 個ありますが、それぞれのオブジェクト全体を要求すると、100 ドルの帯域幅料金がかかります。
コンテナー内のオブジェクトのリストを取得できることはわかっていますが、それではオブジェクトの名前しかわかりませんか?
ありがとう、そして助けていただければ幸いです。
ruby - フォグを使用して Rackspace の大量のファイルを削除する
Rackspace ファイルに何百万ものファイルがあります。1つずつ削除するのではなく、ファイル名のリストを渡して、それらの一部を削除したいと思いますが、これは非常に遅いです。霧でこれを行う方法はありますか?現在、各ファイルを削除するスクリプトがありますが、よりパフォーマンスの高いものがあればいいと思います。
linux - 重複 + CloudFiles
Duplicity を使用して CloudFiles にバックアップしようとすると、次の出力が表示されます。
私は Linux Mint 17 を使用しており、次のガイドに従っています: http://gsusmonzon.blogspot.co.uk/2013/07/backup-with-duplicity-and-rackspace.html
azure - Rackspace OpenStack Cloud File でのオプティミスティック コンカレンシー
Rackspaceでクラウド ファイルを更新するときに、オプティミスティック コンカレンシーをどのように実践しますか。
Azure BLOB ストレージでは、次のことを行います。
- ブロブを取得する
- その etag を書き留めます
- ブロブを変更する
- If-None-Match ヘッダーに etag を指定して、変更された BLOB をアップロードします。
これは、GET とアップロードの間に他の誰かが変更された BLOB をアップロードした場合、etag が一致しないためアップロードが失敗することを意味します (その後、再度 GET してから変更して再度アップロードします)。
とにかく、Cloud Files でそれを行う機能が見つかりません。変更する予定の BLOB の etag を取得できますが、期待どおりに If-None-Match ヘッダーを付けて返送できません。etag ヘッダーを送信することはできますが、これには、既に送信されているデータではなく、送信しているデータの MD5 チェックサムが必要です。
私が見る限り、送信する Last Modified リクエスト ヘッダーもありません。
Cloud Files への同時作業中に変更が失われないようにするにはどうすればよいですか?
php - PHP ループ アップロード
Rackspace Cloud Files にファイルをアップロードしていますが、残念ながら、コンテナーごとに 100 アップロード/秒の制限があるため、アップロードが失敗した場合は、アップロードが成功するまで再試行します。
上記のコード ブロックと ApacheBench の単体テストを使用すると、アップロードされたファイルの 50% よりもわずかに優れているだけなので、明らかに何か間違ったことをしています。
私が間違っていること、またはどのように改善できるかについての提案はありますか?
java - jclouds IOExpection: サーバーへのリクエスト本文の書き込み中にエラーが発生しました
( )を介して大量のファイルをアップロードする場合に使用jcloudsしていますRackspacecloudfile apimulti threaded
たまにオンラインで例外が発生しobjectApi.putます (下部のコード例を参照)。
例外
同様の問題S3
サンプルコード
質問:
そのような行動を経験した人はいますか?多分誰かがその種の問題の回避策を持っていますか?
ありがとう
アロン