Search Posts

自動でWebページから画像を保存したい

通勤時間の暇なときにスマホでネットサーフィンをしているのですが、面白い画像を見つけたときにはダウンロードして保存しています。ですが、自分で一つ一つダウンロードするのは手間がかかるので、自動で画像を保存したいなぁと思っていました。

そこで、調べてみると、ちょうどPythonを使ってスクレイピングをする方法について解説した記事が見つかりました。


Webページの情報(画像に限らずURLや文章などなど)を収集することをスクレイピングと呼ぶようです。
この記事を参考に、Webページに表示されている画像を自動でダウンロードするプログラムを作ってみようと思います。

Pythonライブラリのインストール

前述の解説記事で使用しているPythonライブラリ、
Requests
Beautiful Soup4
の2つをインストールします。
インストールのコマンドは、私はAnacondaを使っていますので、

conda install requests
conda install beautifulsoup4

となります。

Webページからタイトルを取得する

必要なライブラリをインストールすることが出来たので、まずは画像をダウンロードしたいWebページのタイトルを取得してみます。

import requests
from bs4 import BeautifulSoup

url = 'https://www.symphogear-xv.com/story/XVstory13.php'
response = requests.get(url)
soup = BeautifulSoup(response.text,'lxml')
title = soup.title.string
print(title)

Webページは私が好きなアニメの”戦記絶唱シンフォギア”の最新シリーズXVの最終話のストーリー紹介のページです。これを実行すると、

EPISODE 13 / 各話あらすじ – TVアニメ「戦姫絶唱シンフォギアXV」公式サイト

が出力されます。

さて、先ほどのプログラムのソースコードを見てみましょう。

1行目:urlを指定します。
2行目:requestsを使って、指定したurlからHTMLを取得します。
3行目:取得したHTMLをtextファイルに変換します。textファイルにしないとBeautiful Soupで処理することが出来ません。そして、’lxml’というツールを使ってBeautifulSoupで変換します。
4行目:BeautifulSoupの中から指定のデータを抽出しています。ここではタイトルをストリング型で抽出しています。

 

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

このサイトはスパムを低減するために Akismet を使っています。コメントデータの処理方法の詳細はこちらをご覧ください