問題タブ [zfs]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
raspberry-pi - Raspberry-Pi デバイスを介して ZFS フォーマットの USB ディスクを共有する方法
ホーム ネットワークで共有したい ZFS フォーマットの USB ディスクがあり、使用していない Raspberry-Pi (512MB) があります。
LANリクエストでウェイクアップするのは素晴らしい機能であり、しばらく使用しない場合はUSBドライブをスリープ状態にできることを願っています.
問題は、IT にどのディストリビューションを使用するか、またはどのように構成するかです。
filesystems - BTRFS および ZFS スナップショットはどのように機能しますか?
より具体的には、サブボリューム全体をどのように見て、それに関するすべて (ファイル、ファイルのサイズ、フォルダー構造) を記憶しながら、それをこのような少量のデータに収めているのでしょうか。
zfs - 単一のプール内の 2 つの ZFS アレイは、それらを分離する必要があります
誰かがこれについて私を助けることができるかどうかはわかりませんが、試してみます。
現在、Ubuntu ZFS を使用して ZFS アレイを提供しています。これは、2 つの RaidZ1 アレイ、3x3TB および 3x2TB ディスクで構成されています。
しかし、ばかげて、より大きなアレイをインストールするときに、2 番目のアレイを同じプールに追加しました。このプールには、すでに大量のデータがありました (現在はストレージと呼ばれています)。私の計画では、ファイル サーバーまたは ZFS セットアップ自体に問題が発生した場合に備えて、3x2TB ディスクをバックアップ ディスクとして使用することでした。
だから私は本当に2つの質問があります.1つは、同じzfsプールにあるときに、すべてのデータをより大きな配列に移動する方法はありますか? (現在の名前はプール名のストレージです)。次に、プールを縮小できるように、残りの古い未使用の 3x2TB アレイをシャットダウンする方法はありますか?
だから私は問題に悩まされており、どのように進めればよいのかよくわからず、探していることが可能かどうかさえわからないので、手がかりは素晴らしいでしょう. 前もって感謝します
python - Paramiko を使用してリモート ファイル サーバーで zfs コマンドを実行すると、すべてのユーザーに対して NFS/zfs が完全にホースされます
昨日、Paramiko に関して 2 行のコード変更を行いましたが、(私が知る限り) 悪影響を与えるべきではありませんでしたが、すぐに電話が鳴り始め、ユーザーがアクセスできないという報告が電子メールで届きました。 zfs ファイルシステムである NFS マウント ホーム ディレクトリ。私は同僚に意見を求めましたが、なぜこの変更が私がやろうとしていたことを達成できなかっただけでなく、なぜすべての人にすべてをホースでつなぐことになったのかについて、誰もが困惑しています.
Paramiko を使用して「zfs create」コマンドを実行し、新しいユーザーの NFS ホーム ディレクトリを作成した後、Python の「time.sleep(5)」行を使用して、リモート システムにコマンドを実行および処理する機会を与えていました (時々特に NFS サーバーに負荷がかかっている場合は、コマンドが実際に有効になるまでに 1 ~ 2 秒かかることがあります)。
結局のところ、5 秒の遅延では不十分なまれなケースに遭遇したようです。そこで、代わりに Python の「time.sleep(5)」関数から変更して、代わりに Paramiko の「channel.recv_exit_status()」関数を使用して終了ステータス コードを待機することにしました。が必要です (任意の秒数ではありません)。
コードの違いは次のとおりです(zfsパスとユーザー名の決定などのありふれたものを減らすために省略されています):
オリジナルバージョン:
新しいバージョン:
これを行うと、「zfs create」コマンドがファイルサーバー上のプロセスとして存在し、完了しないようです。 ps -eaf | grep "zfs create"
元の呼び出しプログラムから Ctrl+C で抜けるまで存在するファイル サーバー上のプロセスとしてコマンドを示します。最も驚くべきことは、そのサーバーからエクスポートされたすべての zfs ファイルシステムを完全に台無しにするのに十分であるように思われることです。Ctrl+C を押して数分待った後、すべてが通常どおりの状態に戻り、人々は NFS の停止を報告しなくなりました。
これはParamiko 1.14.1とPython 2.7.8にあります。実行/呼び出しマシンはSolaris 11.2で、リモート ファイル サーバー (プロセスがハングする場所) はSolaris 11.1です。
linux - Linux でのプール構成が正しくないため、ZFS プールを開くことができません
ZFS プールを再起動した後、メイン プールを開くことができませんでした。私が得ている正確なエラーは次のとおりです。「プールのメタデータが壊れているため、プールを開くことができません」
(回復コンソールから) zpool status を使用して zpool 構成を確認したところ、表示された構成はすべて間違っていました。構成には、他のドライブに移動したばかりのいくつかのドライブがリストされていました。
現在、zpool status の出力は次のようになります。
私の質問は、再起動後に構成が突然古い状態に戻るのはなぜですか? (再起動する前に zpool のステータスを確認しましたが、すべて問題なく、エラーも報告されませんでした)。また、プールを開いてデータを取り戻すことができるように、ZFS に構成を変更するように指示するにはどうすればよいでしょうか?
Fedora 20、カーネル 3.18.7-100 を実行しています