問題タブ [git-annex]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
0 に答える
282 参照

git - git-annex に保存されているファイルを gitlab.com と同期する方法

git-annexGitlab.com で使用しようとしていますが、添付ファイルを同期しようとするとエラーが発生します。

git annex sync --content

私は何が間違っているのでしょうか?

git annex の最新バージョン (2015 年 5 月 8 日) を使用しています。

0 投票する
1 に答える
1684 参照

git - git annex / ssh : ControlPath が長すぎます

コマンド git annex sync を実行すると、次のエラーが表示されます。

thisによると、問題は git ではなく ssh にあります (ただし、そこで提案された解決策は機能しませんでした)。

この問題を回避するためにできることはありますか?

0 投票する
1 に答える
175 参照

git - GitLab CE に git-annex を追加できますか?

GitLab EE が git-annex をサポートしていることは知っています。ただし、私たちは小規模なチーム (2 人) であり、低コストのプロジェクトであるため、自己ホスト環境で GitLab CE を使用しています。

現在、大きなバイナリ ファイルとイメージの問題に直面しており、解決策を探し始めています。

git-annex を gitlab-shell に手動で統合できる方法がある場合、またはこれを試みている、または試みたい人は、親切に助けてください。

0 投票する
2 に答える
225 参照

git - git-annex を使用して多数の小さな (~5KB) ファイルを管理する

私はしばらくの間 git-annex を使用してデータを管理してきましたが、非常に満足のいくものでした。

ただし、神経画像データを処理する場合、git annex のパフォーマンスはかなり不足しています。この種のデータは多くの場合、多くの画像ファイル (5KB) として提供されます。たとえば、実験ごとに参加者ごとに約 36.000 です。いくつかの実験でも、私のデータ リポジトリが 100 万をはるかに超えるファイルを蓄積していることがわかります。

実行中の巨大なラグを軽減する方法はありますgit annex syncgit annex get? そうでない場合、神経画像データの複数のリポジトリを管理できる (ほぼ) 同様のソフトウェアはありますか?

0 投票する
1 に答える
129 参照

git-annex - 複数の git-annex レプリカの 1 つを削除するには?

いくつかの (通常の) git-annex レプリカがあるとします。ここで、何らかの理由でマシンまたはハード ドライブの 1 つを手放したいので、レプリカの数を 1 つ減らします。つまり、レプリカを 1 つ削除します。

最初にできることはgit annex copy . -t other、すべてのコンテンツが少なくとも 1 つの他のレプリカに存在することを確認することです。次に、削除するレプリカのすべてのコンテンツを削除するためgit annex drop .に aを実行できます。git annex sync

しかし、このレプリカがなくなったことを他のレプリカに伝えるにはどうすればよいでしょうか? gitリモートを削除するだけですか? それとも、特別な git annex コマンドを呼び出す必要がありますか?

0 投票する
1 に答える
3496 参照

git - git lfs は、ローカルまたは「近い」セカンダリ ストレージ \ キャッシュをサポートしていますか?

git lfs を使用する場合、大きなファイルのダウンロード時間を最小限に抑えることができるかどうかを知りたいです。

具体的には、次のシナリオです。

  • ブランチを切り替えるときにファイルを保持する
  • 同じネットワーク内の別のリポジトリからファイルを取得できるようにする - (これは、リモートの「マスター」サーバーにアクセスするよりも高速です)

[git annex の方がこれらの機能をより適切にサポートしていることは知っていますが、Windows のサポートには問題があります]

0 投票する
1 に答える
330 参照

python - bup (git ベースのイメージ バックアップ) は、格納されたオブジェクトのハッシュをどのように計算しますか

仮想マシン イメージをコンパクトに保存するためのバージョン管理システムのいくつかのアイデアと機能に基づくbupバックアップ プログラム ( https://github.com/bup/bup )があります。git

オプションが渡されたときにバックアップ内に格納されているオブジェクトの sha1 のようなハッシュ (16 進数と同じ長さ) を表示できるサブコマンドがあります ( bup「-s , --hash : 各ファイル/ディレクトリのハッシュを表示するだけです。 」)。しかし、sha1 のようなハッシュは、元のファイルの出力と等しくありません。bup ls-sman bup-lssha1sum

オリジナルgitはデータの前に `blob NNN\0' 文字列を付けてデータの sha1 ハッシュを計算します。ここで、NNN はバイト単位のオブジェクトのサイズで、10 進数で書かれています。およびhttps://stackoverflow.com/a/28881708/

接頭辞 `blob NNN\0' をテストしましたが、まだ同じ sha1 サムではありません。

bupで使用されるファイルのハッシュサムを計算する方法は何ですか? それは線形の sha1 ですか、それともマークル ツリーのようなツリーのようなバリアントですか? ディレクトリのハッシュは何ですか?

lsbup のコマンドのソースはhttps://github.com/bup/bup/blob/master/lib/bup/ls.pyで、ハッシュは 16 進数で出力されていますが、ハッシュはどこで生成されたのでしょうか?

そのハッシュは、bupバックアップの作成時に生成され(bup index+bup saveコマンドによってファイルがバックアップ内に配置された場合)、印刷されただけbup lsです; または、毎回再計算されbup ls、bup バックアップの整合性テストとして使用できますか?