問題タブ [cloudberry]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
amazon-glacier - Amazon Glacier アップロードのファイルパスを設定するには?
Amazon Glacier にはファイルパスの概念がありません。ただし、Cloudberry などのクライアント ツールを使用してファイルを Glacier にアップロードすると、アップロードにパス構造が含まれます。
アーカイブをプログラムで Amazon Glacier にアップロードしている場合、Cloudberry にファイルパスとファイル名があるようにアップロードするにはどうすればよいですか? ここの「x-amz-archive-description」フィールドに何かを追加する必要があるかもしれないと思いますhttp://docs.aws.amazon.com/amazonglacier/latest/dev/api-archive-post.html、しかし私はしませんそれをフォーマットする方法を知っています。
Amazon Javascript SDK: http://docs.aws.amazon.com/AWSJavaScriptSDK/guide/examples.htmlを使用しています。アーカイブはうまくアップロードできたと思いますが、Cloudberry ではまだ見ることができません。
更新: 動作するようになった後、サンプルが必要な場合に備えて、使用していたコードをここに置きます: https://github.com/fschwiet/mysql-glacier-backup
multiple-instances - Robocopy の 2 番目のインスタンスが同じフォルダーで開始された場合はどうなりますか?
CloudBerry を使用してクラウド ストレージ ボリューム上のアーカイブ フォルダーに、/MIR オプションを指定した robocopy を含め、15 分ごとに実行するようにスケジュールされた SQL ログ バックアップをいくつか持っています。
フル バックアップの後、低速のネットワークでは、ログ バックアップの実行時にフル バックアップのアーカイブ コピーが完了していないことがあります。新しいログ バックアップ。
何が起こるべきですか?再試行フラグが /R:60 に設定されている場合、2 番目のインスタンスは、別の robocopy インスタンスによって既にコピーされているファイルを何らかの方法でスキップする必要がありますか?それとも、robocopy の 2 つのインスタンスが互いにすべて重なりますか? または、/R:0 オプションを設定して 2 番目のインスタンスを実行し、コピー中の最初のファイルをスキップする必要がありますか?
azure - AzureBlobStorage : 計算された MD5 が既存のプロパティと一致しません
次のコードと出力を指定すると、このファイルをダウンロードしようとするたびに、このファイルに対して同じ例外が発生します。
md5 検証なしでダウンロードしてコンテンツを確認すると、ファイルに問題がないため、ブロブ メタデータの md5 プロパティ値が正しくないのではないかと疑っています。
そもそもどうすれば無効になるのかを理解しようとしています。ファイルのアップロード時にこのプロパティを設定するのは、Azure BLOB ストレージ内部ではありませんか?
解決策として DisableContentMD5Validation を使用したくありません。
(ps。最初にファイルをアップロードするためにCouldberry Explorerを使用しました)
この出力を与える
悪い例、ローカル ファイル md5 は実際には Hv+nQRNCPQnvy4WU9+qaQA== です。
結論 ある時点でプロパティを間違って設定する必要があります。
解決。md5 をダウンロードして計算し、ブロブのプロパティ値を更新します。
amazon-s3 - S3でバージョン管理された削除済みファイルを復元するコマンドラインツール?
S3 バケットでバージョニングを有効にしていますが、 s3cmdなどのコマンドライン S3 クライアントを使用して、削除したファイルを復元するにはどうすればよいですか? 異なるバージョンのファイルを参照するにはどうすればよいですか? これまでのところ、これを実現するためにフリーウェアの Cloudberry Windows Clientに回帰しました。Boto Python ライブラリも使用できることはわかっていますが、一般的なコマンド ライン ツールを使用したいと思います。
azure - クライアント ツール (Cloudberry または Azure Storage Explorer) を使用した Azure Shared Access Signature (SAS)
Azure ストレージ コンテナー用の SAS を生成した後、それを Cloudberry または Azure ストレージ エクスプローラー ツールで使用すると、base64 エラーが表示されます。
私の質問は、コンテナーの Shared Access Signature を Cloudberry や Azure Storage Explorer などのクライアント ツールで使用できるかということです。
azure - Some Images In Azure Blob Can't Be Accessed From Web (But Some Can)
We have a public Azure blob that contains over 300,000 image files. The method we used to upload the files was via a Cloudberry Drive mapped drive.
After uploading all the images and spot-checking them via https://ourazureaccount.blob.core.windows.net/ourblob/imagefile.jpg, we are having intermittent problems.
Some of the images load up from the web just fine. But others come up with this error from the web browsers:
Error: Code=BlobNotFound
When an image fails with "BlobNotFound", I am able to browse to the CloudBerry drive & path and see the image file just fine. So I know the file exists.
Does anyone know why some images load fine from the web, and others fail?
powershell - powershell cloudberry スナップイン - クラウド フォルダーの選択 - 400 の不正な要求エラーをスローする
Amazon s3 バケットとローカル フォルダーの間で自動同期を試みています。
しかし、コマンドを実行すると:
以下のエラーが表示されます:
バケット「TestAutoSync」は私の s3 アカウントに存在し、「キー」と「シークレット」を相互検証しました。cloud-berry ui インターフェイスを介して接続すると、完全に正常に動作します。
以下は、上記のステートメントまで実行された完全なコードです
以前にそのようなシナリオを回避したことがある場合は、意見をお聞かせください。