問題タブ [fsck]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
filesystems - UFS - 0 バイトのファイルがファイルシステムのヘッダーをどのように壊したのですか?
ここにたどり着いた方へ。残念ながら、データを回復できませんでした。さまざまな試行と問題の再現の後、試行を続けるにはコストがかかりすぎたため、必要な情報を再作成するために過去のバックアップを使用しました
人的ミスにより、150G UFS ファイルシステム (Solaris) が破損しました。
ファイルシステム (c0t0d0s3) のバックアップを試みたときに、ufsdump(1M) が正しく使用されていません。これに至った背景を説明します...
管理者が使用したもの:
これは悪い使い方なので、0 バイトの output_1 というファイルを作成しました。
次に、使用された構文は次のとおりです。
0 バイトのファイルoutput_1を/dev/rdsk/c0t0d0s3に書き込みました - これはパーティション スライスでした
興味深いことに、ファイルが 0 バイトであるため、ファイルシステムに害はないと考えていましたが、実際にそうなりました。マウントポイントで ls を実行しようとすると、I/O エラーが発生したとパーティションが主張しました。マウントを解除して再度マウントすると、ファイルシステムにはコンテンツが表示されませんでしたが、ディスク領域は以前と同じように使用済みとして表示されていました。
ある時点で、ファイルシステムの「ヘッダー」が影響を受けたと思いますよね?それともスライス情報ですか?
fsck を少し試すと、次のようになります。
ディスクブロック数 / I=11
- これは、コマンドが自身の内容に関するファイルシステム情報を壊したようですよね? fsck -y -F ufs /dev/dsk..を試みたとき、さまざまなファイルが復元されましたが、目的の dbf ファイル (GB サイズ) は復元されませんでした。
今できることは?newfs -N からのすべてのスーパーブロック情報を試す必要がありますか?
EDIT : スーパーブロック情報を示すパーティション newfs 出力に関する新しい情報
linux - 不良ブロックはパーティションまたはパーマネントに関連していますか?
パーティションでチェックを実行しました:
いくつかの不良ブロックが見つかりました。私が理解している限り、不良ブロックにマークを付けて、ファイルがそれらを使用しないようにしました。
私の質問は次のとおりです。「マーキング」は永続的ですか、それともパーティションにリンクされていますか? より具体的には、次のような方法でパーティションを再フォーマットすると
不良ブロックはまだマークされていますか?
hadoop - 複製されたブロックを物理的に配置する場所
クラスターには 2 つのデータノード + 1 つのネームノードがあります。ファイル email.json が両方のデータノードで複製されていることがわかります。fsck の出力に基づいて、ここで場所を確認できます。
- 192.168.99.1:50010 192.168.99.100:50010
サーバーの1つでファイルの物理的な場所を見つけることができます
サーバー #1
しかし、2 番目のデータ ノードでレプリカが見つからないようです。
サーバー #2
FSCK コマンド出力
git - ログ ファイルから破損した Git リポジトリを再生成しますか?
Windows でランダムにブルースクリーンが発生し、再起動すると、git リポジトリが破損していました。これはローカル専用のリポジトリであり、私のバックアップは数週間前のものです。私はそれを機能させるためにさまざまなこと(以下に記載)を試しましたが、役に立ちませんでした。ローカル リポジトリを再クローンすると、元のリポジトリと同じ破損が発生します。レポに新しいものをコミットすることはできません。
ただし、git log
それでもgit show
完全に機能しているように見えます。これらのコマンドの出力から新しい git リポジトリを再作成する方法はありますか?
再び機能させるために私が試みたこと:
git ステータスが機能しません:
また、次のことも試しましたが、役に立ちませんでした。
hadoop - CDH HDFS ノードの廃止は終わらない
12 台のサーバーの Hadoop クラスター (CDH) があります。最近、そのうちの 3 台を廃止したいと考えていますが、このプロセスは既に 2 日以上実行されています。しかし、それは決して終わりません。特に、過去 24 時間で、3 つのデータノードで利用可能なデータは 94G しかないことがわかりましたが、サイズは過去 24 時間で変化していないようです。レプリケートされていないブロック数がすでにゼロになっている場合でも。hdfs 内のすべてのデータの複製係数は 3 です。
以下は、hadoop fsck コマンドの結果です。
合計サイズ: 5789534135468 B (開いているファイルの合計サイズ: 94222879072 B) 合計ディレクトリ: 42458 合計ファイル: 5494378 合計シンボリックリンク: 0 (現在書き込まれているファイル: 133) 合計ブロック (検証済み): 5506578 (平均ブロックサイズ 1051385 B) (開いているファイル ブロックの合計 (未検証): 822) 最小限に複製されたブロック: 5506578 (100.0 %) 過剰に複製されたブロック: 0 (0.0 %) 複製されていないブロック: 0 (0.0 %) 誤っ て複製されたブロック: 0 (0.0 %)デフォルトのレプリケーション係数: 3 平均ブロックレプリケーション: 2.999584 破損ブロック: 0 レプリカの欠落: 0 (0.0 %) データノードの数: 13 ラックの数: 1 FSCK は 2016 年 10 月 17 日月曜日 16:36:09 KST で 781094 ミリ秒で終了しました
sqlite - SD-card becomes read only
I am running my application on colibri-vf50 toradex(running over angstrom distribution) board having sqlite database resides on sd-card. My sd-card becomes read-only whenever I remove power-supply just after board boot up(same time my app start making connection with db). Due to this I getting error in dmesg like "FAT-fs (mmcblk0p1): error, clusters badly computed".
After this sqlite can not write in db. I also tried to repair using fsck using below command but found no success.
I also tried with various journel_mode of sqlite but could not prevent. So How I can prevent my sd-card to become read-only and also how to repair on board?
Thanks in advance