問題タブ [zfs]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
java - ZFS を使用した Gradle の動作の違い
私はgradleで興味深い問題に遭遇しました。実行時
sparc アーキテクチャとマウントされた ZFS (zpool) ファイルシステムを備えた Solaris 10 で、Java プロジェクトのモックを検証できないという Mockito エラーが発生します。Windows マシンでテストを実行している場合、これは発生しません。
UFS フォーマットのパーティションを使用して実験した後、問題はなくなり、すべてのテストに合格しました。
私の質問は、Gradle は ZFS をサポートしていませんか、それとも、テストがスムーズに実行されるようにするために Gradle で変更する必要がある構成がありますか? 当社の継続的インテグレーション サーバー (Jenkins) はワークスペースに ZFS を使用しているため、これは非常に重要です。
solaris - Solaris カーネル統計は unix:0:vopstats_zfs:* システム (zpools) 全体ですか?
Solaris カーネル統計unix:0:vopstats_zfs:*
システム (zpools) は広範ですか? つまり、システムに存在するすべての zpool の統計情報ですか? ディスク操作と ZFS 操作の間に大きな違いが見られることがありますが、その違いの原因を判断できません。たとえば、ZFS の書き込み操作では 1 秒あたり 2 ~ 3,000 の操作が示されますが、ディスクでは 17,000 を超える操作が示されます。一部の期間では、これらの操作はほぼ一致しますが (L2ARC も考慮に入れる場合)、完全に異なる場合もあります。大域ゾーンの監視を行っています...何かがゾーン内に隠されている可能性はありますか? これは 1 つのカーネルなので、グローバル ゾーンとゾーンで同じ数が期待されます。システムには ZFS のみがあり、UFS はありません。その時点でスクラブは要求されませんでした。
filesystems - NTFS HFS+ EXT4 ZFS の比較
大学の仕事のためにこれらの 4 つのファイルシステムについて調査する必要がありますが、Web 上で適切な情報を見つけることができません。
ポイントはこれら4つとその機能を比較することですが、ベンチマークや詳細なデータが見つかりません
それらの長所と短所、または私が必要とする情報を含むウェブサイトについて知っていることを誰かが教えてくれたら、それは素晴らしいことです
どうもありがとうございました
linux - ディスクの交換後に zpool を (強制的に) インポートできません (I/O エラー)
壊れたディスクを交換した後、raidz1-0 アレイをインポートできません。ディスクを交換する前に、壊れたディスクを「オフライン」にすることができませんでした。壊れたディスクを「交換」するために zpool をインポートできなくなりました。
バックアップ/エクスポートがなく、心配になっています。障害が発生したディスクは 1 つだけなので、プールを回復できることを願っていますが、他に試すことは考えられません。アドバイス/ヒント/提案は大歓迎です!
以下の手順を参照してください。
システム: Linux nas 3.2.0-4-amd64 #1 SMP Debian 3.2.57-3 x86_64 GNU/Linux
root@nas:/home/lucas# zpool status -v
利用可能なプールがありません
root@nas:/home/lucas# zpool import
root@nas:/home/lucas# zpool import naspool
「naspool」をインポートできません: プールが他のシステムから使用されている可能性があります。とにかくインポートするには「-f」を使用してください
root@nas:/home/lucas# zpool import naspool -f
「naspool」をインポートできません: I/O エラー バックアップ ソースからプールを破棄して再作成してください。
root@nas:/home/lucas# zdb
'/etc/zfs/zpool.cache' を開けません: そのようなファイルまたはディレクトリはありません
root@nas:/home/lucas# ls -l /dev/disk/by-id
root@nas:/home/lucas# zpool replace naspool scsi-SATA_ST3000DM001-1CH_W1F39CBE
「naspool」を開けません: そのようなプールはありません
root@nas:/home/lucas# zpool import -d /dev/disk/by-id/
プール: naspool id: 3030059305965279629 状態: 劣化状態: 1 つ以上のデバイスに破損したデータが含まれています。処置: デバイスが欠落または損傷していても、プールをインポートできます。インポートすると、プールの耐障害性が損なわれる可能性があります。参照: http://zfsonlinux.org/msg/ZFS-8000-4J 構成 :
root@nas:/home/lucas# zpool import -d /dev/disk/by-id/naspool
「naspool」をインポートできません: プールが他のシステムから使用されている可能性があります。とにかくインポートするには「-f」を使用してください
root@nas:/home/lucas# zpool import -d /dev/disk/by-id/ naspool -f
「naspool」をインポートできません: I/O エラー バックアップ ソースからプールを破棄して再作成してください。
root@nas:/home/lucas# zpool import -f -F naspool
「naspool」をインポートできません: I/O エラー バックアップ ソースからプールを破棄して再作成してください。
root@nas:/home/lucas# zpool import -f -F 3030059305965279629
「naspool」をインポートできません: I/O エラー バックアップ ソースからプールを破棄して再作成してください。
root@nas:/home/lucas# zpool import -d /dev/disk/by-id/ -f -F 3030059305965279629
「naspool」をインポートできません: I/O エラー バックアップ ソースからプールを破棄して再作成してください。
また、プールをインポートするために zfsGuru ライブ USB スティックで起動しようとしましたが、うまくいきませんでした:
filesystems - ZFS ブロックサイズ (レコードサイズ) とプライマリキャッシュの問題
この Web サイト: http://www.patpro.net/blog/index.php/2014/03/19/2628-zfs-primarycache-all-versus-metadata/
その人は、primarycache
すべてまたはメタデータに切り替えることで、ウイルス対策を使用したときに大幅に異なる読み取りパフォーマンスが得られることを示しています.
ただし、彼はまた、読み取り帯域幅にも大きな違いがあることを示しています。
primarycache=none と compression=lz4 の両方で 2 つの新しいデータセットを作成し、それぞれに 4.8GB ファイル (2.05x 圧縮率) をコピーします。次に、最初のものに primarycache=all を設定し、2 番目のものに primarycache=metadata を設定します。別のターミナルで zpool iostat を実行して、最初のファイルを /dev/null に cat します。最後に、2 番目のファイルを同じ方法で cat します。
読み取り帯域幅列の合計は、primarycache=all: 2.44GB のデータセットのディスク上のファイルの物理サイズ (du 出力) と (ほぼ) 正確に一致します。もう 1 つのデータセットの場合、primarycache=metadata の場合、読み取り帯域幅列の合計は ...wait for it... 77.95GB です。
彼は、匿名のユーザーが次のように説明したと言います。
clamscan はファイルを読み取り、4k (ページサイズ?) のデータを取得して処理し、次の 4k を読み取ります。
ただし、ZFS は 4k だけを読み取ることはできません。デフォルトでは 128k (レコードサイズ) を読み取ります。キャッシュがない (キャッシュをオフにした) ため、残りのデータは破棄されます。
128k / 4k = 32
32 x 2.44GB = 78.08GB
匿名ユーザーの説明がよくわかりません。なぜ読み取り帯域幅に大きな違いがあるのか について、私はまだ混乱しています。
では、この ZFS の実験でprimarycache
は、すべての場合は読み取り帯域幅が 2.44 GB であるのに、メタデータのみの場合は 77.95 GB になるのはなぜでしょうか? また、ZFS のチューニングにはどのような影響がありますか? その人がおそらく自分のレコードサイズを減らしたら、別の結果になるでしょうか?
ZFS のレコードサイズは可変であるという主張についてはどうですか?
linux - qx(ssh ...) からの出力がないのはなぜですか?
私がBashで行う場合
次に、出力が に表示されますが$a
、Perl で表示される場合
その後、出力が得られません。私はsshキーを持っているので、ログインは必要ありません。
今のところ、単純な出力を取得したいだけですが、後でリモートホストからローカルホストにすべて bash でパイプしたいと考えています。ZFS レプリケーションに使用されます。
質問
Perl で出力が表示されないのはなぜですか?
ubuntu-14.04 - zfs: 2 つの既存の vdev のプールを作成してマウントする方法
2 つのプールがあります (zpool status からの短縮された出力):
それらを 1 つのプールに結合し、「Aquilonde」と呼び、サーバーのファイル システムに /plex-server としてマウントします。私はzfsの初心者です。あまり満足せずにグーグルで検索しました。私はこれとそのバリエーションを試しました:
linux - Linux 上の zfs は、ネットワークに接続されたストレージに gentoo とともにインストールするのに十分信頼できますか?
どのファイルシステムが最適で、Raid を選択するか、Raid を選択しないかを決めるのに苦労しています。私は4つの異なるハードディスクを持っています。1. 120GB SSD 2. 160GB 3. 500GB 4. 1TB
また、Linux の zfs は正式にはトリムをサポートしていませんが、サードパーティのパッチをサポートしていないため、完全にはテストされていないことに気付きました....
その結果、ssd に zfs を使用させるつもりはありません。代わりに ext4 を使用します...
では、Linux 上の zfs は、ネットワークに接続されたストレージに gentoo とともにインストールするのに十分な信頼性がありますか? それとも、私にとって別の良い解決策がありますか?PS zfs が十分に信頼できる場合、RAIDZ は良い選択ですか?
ubuntu - zfs コンテナー docker データを作成するにはどうすればよいですか。開発者環境用に複数のコンテナーも作成しました
zfs docker を作成したいのですが、少し助けが必要です。ubuntu で作業しています。自分の環境用に docker で 3 つのコンテナーを作成しています。このファイル システムをデータの冗長性とともに使用する必要があります。