オフラインで読むためにウェブサイト全体をダウンロードする方法

オフラインで読むためにウェブサイト全体をダウンロードする方法

最近はどこでもWi-Fiを利用できますが、Wi-Fiがない場合もあります。そして、そうするとき、あなたがオフラインの間にそれらにアクセスできるように、あなたが保存したいウェブサイトがあるかもしれません—おそらく研究、娯楽、または単に後世のために。





オフラインで読むために個々のWebページを保存することは非常に基本的ですが、Webサイト全体をダウンロードしたい場合はどうでしょうか。心配しないでください、あなたが思っているよりも簡単です。しかし、私たちの言葉を信じないでください。ここでは、面倒なことなく、オフラインで読むために任意のWebサイトをダウンロードするために使用できるいくつかの気の利いたツールを紹介します。





1.1。 WebCopy

CyotekによるWebCopyは、WebサイトのURLを取得し、リンク、ページ、およびメディアをスキャンします。ページを見つけると、Webサイト全体が見つかるまで、より多くのリンク、ページ、およびメディアを再帰的に探します。次に、構成オプションを使用して、オフラインでダウンロードするパーツを決定できます。





WebCopyの興味深い点は、それぞれが独自の設定と構成を持つ複数のプロジェクトをセットアップできることです。これにより、多くのサイトをいつでも簡単に再ダウンロードできます。各サイトは毎回まったく同じ方法で再ダウンロードできます。

1つのプロジェクトで多くのWebサイトをコピーできるため、組織化された計画でそれらを使用します(たとえば、技術サイトをコピーするための「技術」プロジェクト)。



LGタブレットのタッチスクリーンが機能しない

WebCopyを使用してWebサイト全体をダウンロードする方法

  1. アプリをインストールして起動します。
  2. 案内する ファイル>新規 新しいプロジェクトを作成します。
  3. URLをに入力します Webサイト 分野。
  4. 変更 フォルダを保存 サイトを保存する場所へのフィールド。
  5. 遊んで プロジェクト>ルール… (( WebCopyルールの詳細 )。
  6. 案内する ファイル>名前を付けて保存… プロジェクトを保存します。
  7. クリック コピー ツールバーでプロセスを開始します。

コピーが完了すると、 結果 タブをクリックして、個々のページやメディアファイルのステータスを確認します。 NS エラー タブには、発生した可能性のある問題と、 スキップ タブには、ダウンロードされなかったファイルが表示されます。

関連:オフラインで読むために記事を保存するのに最適なアプリ





しかし、最も重要なのは サイトマップ 、WebCopyによって検出されたWebサイトの完全なディレクトリ構造を示します。

Webサイトをオフラインで表示するには、ファイルエクスプローラーを開き、指定した保存フォルダーに移動します。を開きます index.html (または時々 index.htm )選択したブラウザでブラウジングを開始します。





ダウンロード: WebCopy for ウィンドウズ (無料)

2.2。 HTTrack

HTTrackはWebCopyよりもよく知られており、オープンソースであり、Windows以外のプラットフォームで利用できるため、間違いなく優れています。インターフェースは少し不格好で、多くのことが望まれていますが、それはうまく機能するので、それがあなたをそらさないようにしてください。

WebCopyと同様に、プロジェクトベースのアプローチを使用して、複数のWebサイトをコピーし、それらをすべて整理しておくことができます。ダウンロードを一時停止および再開できます。また、古いファイルと新しいファイルを再ダウンロードすることで、コピーしたWebサイトを更新できます。

HTTrackで完全なWebサイトをダウンロードする方法

  1. アプリをインストールして起動します。
  2. クリック 新しいプロジェクトの作成を開始します。
  3. プロジェクトに名前、カテゴリ、ベースパスを付けて、をクリックします
  4. 選択する ウェブサイトをダウンロードする [アクション]で、各WebサイトのURLを Webアドレス ボックス、1行に1つのURL。 URLをTXTファイルに保存してインポートすることもできます。これは、後で同じサイトを再ダウンロードする場合に便利です。クリック
  5. 必要に応じてパラメータを調整し、をクリックします 終了

すべてがダウンロードされたら、ファイルがダウンロードされた場所に移動して、 index.html また index.htm ブラウザで。

iPodからコンピュータに音楽を移動する

LinuxでHTTrackを使用する方法

Ubuntuユーザーの場合、HTTrackを使用してWebサイト全体を保存する方法は次のとおりです。

  1. を起動します ターミナル 次のコマンドを入力します:sudo apt-get install httrack
  2. Ubuntuのパスワードを要求されます(設定している場合)。入力して、 入力 。ターミナルは数分でツールをダウンロードします。
  3. 最後に、このコマンドを入力して、 入力 。この例では、人気のあるWebサイトをダウンロードしました。 脳のピッキングhttrack https://www.brainpickings.org/
  4. これにより、オフラインで読むためにWebサイト全体がダウンロードされます。

ここのWebサイトのURLを、ダウンロードするWebサイトのURLに置き換えることができます。たとえば、ブリタニカ百科事典全体をダウンロードしたい場合は、次のようにコマンドを微調整する必要があります。

httrack https://www.britannica.com/

ダウンロード: HTTrack for WindowsとLinux | アンドロイド (無料)

3.3。 SiteSucker

Macを使用している場合、最善の選択肢は SiteSucker 。このシンプルなツールは、ウェブサイト全体をコピーし、同じ構造を維持し、関連するすべてのメディアファイル(画像、PDF、スタイルシートなど)も含みます。

クリーンで使いやすいインターフェースを備えています。文字通りウェブサイトのURLを貼り付けて、 入力

気の利いた機能の1つは、ダウンロードをファイルに保存し、そのファイルを使用して同じファイルをダウンロードし、将来(または別のマシンで)構造を再構築する機能です。この機能は、SiteSuckerがダウンロードを一時停止および再開できるようにするものでもあります。

SiteSuckerの価格は約5ドルで、最大の欠点である無料バージョンや無料トライアルは付属していません。最新バージョンには、macOS 11 BigSur以降が必要です。古いバージョンのSiteSuckerは古いMacシステムで利用できますが、一部の機能が欠落している可能性があります。

ダウンロード SiteSucker for ios | マック (4.99ドル)

四。 Wget

Wgetは、HTTPおよびFTPプロトコルを介してあらゆる種類のファイルを取得できるコマンドラインユーティリティです。 WebサイトはHTTPを介して提供され、ほとんどのWebメディアファイルはHTTPまたはFTPを介してアクセスできるため、WgetはWebサイト全体をダウンロードするための優れたツールになります。

関連している: Googleブックスから本をダウンロードする方法

Wgetは、ほとんどのUnixベースのシステムにバンドルされています。 Wgetは通常、単一のファイルをダウンロードするために使用されますが、最初のページで見つかったすべてのページとファイルを再帰的にダウンロードするためにも使用できます。

あなたはビットコインマイニングにどれくらいのお金を稼ぐことができますか
wget -r -p https://www.makeuseof.com

サイズによっては、ウェブサイト全体がダウンロードされるまでに時間がかかる場合があります。

ただし、一部のサイトでは、Webサイトをリッピングすると多くの帯域幅が必要になる可能性があるため、実行しようとしていることを検出して阻止する場合があります。これを回避するには、ユーザーエージェント文字列を使用してWebブラウザに変装します。

wget -r -p -U Mozilla https://www.thegeekstuff.com

礼儀正しくしたい場合は、ダウンロード速度を制限し(Webサーバーの帯域幅を占有しないように)、各ダウンロードの間に一時停止する必要があります(要求が多すぎてWebサーバーを圧倒しないように)。

wget -r -p -U Mozilla --wait=10 --limit-rate=35K https://www.thegeekstuff.com

MacでWgetを使用する方法

Macでは、単一のHomebrewコマンドを使用してWgetをインストールできます。 brew install wget

  1. Homebrewをまだインストールしていない場合は、次のコマンドでダウンロードしてください:/usr/bin/ruby -e '$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/master/install)'
  2. 次に、次のコマンドでWgetをインストールします:brew install wget
  3. Wgetのインストールが完了したら、次のコマンドでWebサイトをダウンロードできます:wget path/to/local.copy http://www.brainpickings.org/

Windowsでは、を使用する必要があります この移植されたバージョン 代わりは。アプリをダウンロードしてインストールし、指示に従ってサイトのダウンロードを完了します。

ウェブサイト全体を簡単にダウンロード

Webサイト全体をダウンロードする方法がわかったので、インターネットにアクセスできない場合でも、何かを読むことなく捕まえられることはありません。ただし、サイトが大きいほど、ダウンロードも大きくなることを忘れないでください。使用するすべてのメディアファイルを保存するには数千MBが必要になるため、MUOのような大規模なサイトをダウンロードすることはお勧めしません。

共有 共有 つぶやき Eメール オフラインで読むための完全なWebページをダウンロードする方法

これらの方法を使用して、オフラインで読むためにWebページを保存し、最も必要なときにお気に入りのWebページを手元に置いておきます。

次を読む
関連トピック
  • インターネット
  • データバックアップ
  • オフラインブラウジング
  • ダウンロードのヒント
著者について シャアント鉱山(58の記事が公開されました)

ShaantはMUOのスタッフライターです。コンピュータアプリケーションの卒業生である彼は、執筆への情熱を活かして、複雑なことを平易な英語で説明しています。研究や執筆をしていないときは、良い本を楽しんだり、走ったり、友達と遊んだりしています。

ShaantMinhasのその他の作品

ニュースレターを購読する

ニュースレターに参加して、技術的なヒント、レビュー、無料の電子書籍、限定セールを入手してください。

購読するにはここをクリックしてください