python Selenium スクレイピングで京東の検索ページ情報を取得する#
1. Selenium フレームワークとは何ですか?#
-
Selenium は、Web アプリケーションのテストに使用されるツールです。実際のユーザーが操作しているかのように、ブラウザで直接実行されます。
-
サポートされているブラウザには、IE、Firefox、Safari、Google Chrome、Opera などがあり、さまざまなプラットフォームをカバーしています。
-
自動化テスト、JavaScript の動的なスクレイピングをサポートしています。
2. 環境の設定#
ここでは、Firefox ブラウザのドライバーである geckodriver を使用しています。Google Chrome を使用している場合は、chromedriver を使用する必要があります。
ダウンロードリンク:geckodriver
注意:ここでのブラウザドライバーのバージョンは、ブラウザのバージョンと対応している必要があります。最新バージョンのドライバーをダウンロードし、ブラウザを最新バージョンに更新することをお勧めします。
ここでは、geckodriver-v0.29.1-win64.zip1.44 MB をダウンロードしました。
解凍するとgeckodriver.exe
ファイルが得られます。この実行可能ファイルを Python のインストールディレクトリのScripts
フォルダに追加します。Anaconda を使用している場合は、Anaconda3
のScripts
フォルダに追加する必要があります。
cmd でgeckodriver
と入力すると、次のような出力が得られます。
(crawler) C:\Users\HP>geckodriver 1630680105974 geckodriver INFO Listening on 127.0.0.1:4444
このような形式が表示されれば、インストールが成功しています。
Selenium
ライブラリをダウンロードし、Python で最も一般的に使用されるコマンドpip install Selenium
を使用して Selenium フレームワークをインストールします。
3. コードの記述#
3.1 関連するライブラリのインポート#
# ライブラリのインポート
from selenium import webdriver
from selenium.webdriver.common.keys import Keys
import time
3.2 ブラウザの操作をシミュレート#
# ブラウザで京東のページにアクセスし、スクレイピングのための対策を行う
def spider(url, keyword):
# ブラウザの初期化
driver = webdriver.Firefox()
# ウェブサイトにアクセス
driver.get(url)
# time.sleep(2) # 20
try:
driver.implicitly_wait(10) # ノードが完全に読み込まれるまで待機する(感知できない)
# 検索
# 検索ボックスを特定する
input_tag = driver.find_element_by_id('key')
# キーワードを入力する
input_tag.send_keys(keyword)
# Enterキーを押して検索する
input_tag.send_keys(Keys.ENTER)
get_goods(driver)
finally:
pass
# time.sleep(10)
# # ブラウザを閉じる(常に実行される)
# driver.close()
3.3 必要なデータを取得する#
# 商品データの特定
def get_goods(driver):
try:
# 各商品を特定する
goods = driver.find_elements_by_class_name('gl-item')
# 商品名、リンク、価格、コメント
for good in goods:
p_name = good.find_element_by_css_selector('.p-name em').text.replace('\n', '')
detail_url = good.find_element_by_tag_name('a').get_attribute('href')
price = good.find_element_by_css_selector('.p-price i').text
p_commit = good.find_element_by_css_selector('.p-commit a').text
msg = """
商品名:%s
リンク:%s
価格:%s
コメント:%s
""" % (p_name, detail_url, price, p_commit)
print(msg)
# with open("")
# 大量のデータ
# 次のページに移動する
button = driver.find_element_by_partial_link_text('下一页')
# クリック操作をシミュレートする
button.click()
time.sleep(2)
get_goods(driver)
except Exception as e:
print(e)
3.4 プログラムのエントリーポイント#
if __name__ == '__main__':
spider('https://www.jd.com/', keyword='jk')
ここで、URL を入力し、keyword に検索キーワードを入力します。
4. 完全なコード#
# 環境の設定
"""
ブラウザドライバー geckodriver
1630635571195 geckodriver INFO Listening on 127.0.0.1:4444
"""
# ライブラリのインポート
from selenium import webdriver
from selenium.webdriver import ActionChains
from selenium.webdriver.common.by import By
from selenium.webdriver.common.keys import Keys
import time
# ブラウザで京東のページにアクセスし、スクレイピングのための対策を行う
def spider(url, keyword):
# ブラウザの初期化
driver = webdriver.Firefox()
# ウェブサイトにアクセス
driver.get(url)
# time.sleep(2) # 20
try:
driver.implicitly_wait(10) # ノードが完全に読み込まれるまで待機する(感知できない)
# 検索
# 検索ボックスを特定する
input_tag = driver.find_element_by_id('key')
# キーワードを入力する
input_tag.send_keys(keyword)
# Enterキーを押して検索する
input_tag.send_keys(Keys.ENTER)
get_goods(driver)
finally:
pass
# time.sleep(10)
# # ブラウザを閉じる(常に実行される)
# driver.close()
# 商品データの特定
def get_goods(driver):
try:
# 各商品を特定する
goods = driver.find_elements_by_class_name('gl-item')
# 商品名、リンク、価格、コメント
for good in goods:
p_name = good.find_element_by_css_selector('.p-name em').text.replace('\n', '')
detail_url = good.find_element_by_tag_name('a').get_attribute('href')
price = good.find_element_by_css_selector('.p-price i').text
p_commit = good.find_element_by_css_selector('.p-commit a').text
msg = """
商品名:%s
リンク:%s
価格:%s
コメント:%s
""" % (p_name, detail_url, price, p_commit)
print(msg)
# with open("")
# 大量のデータ
# 次のページに移動する
button = driver.find_element_by_partial_link_text('下一页')
# クリック操作をシミュレートする
button.click()
time.sleep(2)
get_goods(driver)
except Exception as e:
print(e)
if __name__ == '__main__':
spider('https://www.jd.com/', keyword='jk')