0

phpまたはlinuxコマンドラインを使用して「オフラインで使用」するためにWebサイトをコピーして保存する方法が必要です。ブラウザでリンクを保存するのと同じように、画像タグを書き換えてダウンロードします。

問題は、私が持っている問題の解決策を見つけたとき、私は通常どこかにリンクを保存することです。それに伴う問題は、リンクがなくなることがあるため、リンクにアクセスできなくなることです。

だから私が考えていたのは、自分のサーバーにページを保存してそのURLを使用するツールを作成することです。

file_get_contentsを使用してtext/htmlを取得する方法を知っています。これはほとんどの場合機能しますが、ツールを作成しているので、画像もダウンロードできるようにすると思いました。ブラウザで保存してアップロードしようと思ったのですが、もっときれいな方法が欲しいです。

誰かがライブラリやそれを行う何かを知っているなら、私を助けてください。

ありがとう !

4

3 に答える 3

1

wgetには非常に便利なオプションがあるため、Webサーバーで利用できる場合はwgetを確認することをお勧めします。それらの1つは、Webサイトをローカルで使用できるようにするために、リンク変換を使用してWebサイトのオフラインコピーを作成するオプションです。

wget --domains example.com --recursive --html-extension --page-requisites --convert-links

サブフォルダーのオフラインコピーを作成しようとしている場合(たとえば)、 wgetが親フォルダーを破棄しないようにexample.com/test/追加します。--no-parent

廃棄プロセス自体は、bashスクリプトを介して実行するか、またはexec()を使用してPHPを介して呼び出すことができます。

于 2012-12-16T20:23:02.143 に答える
1

おそらく探しているものであるcURLライブラリを調べる必要があります。

基本的な例は、ドキュメントでも指定されています。

于 2012-12-16T20:12:08.273 に答える
0

これを使用することを検討してください: http://www.httrack.com/

于 2012-12-16T20:31:31.600 に答える