Это URL-адрес карты сайта, который я сканирую. Я хочу, чтобы мой паук собирал данные со страниц, начинающихся с / property .

Проблема в том, что эти страницы не показывают правильный ответ при отправке запроса без заголовков. Запрос требует заголовок агента пользователя.

Я придумаю решение, подобное этому. Во-первых, URL-адреса, начинающиеся с / property , сканируются методом parse, и этот метод получает пустой ответ. Тот же запрос отправляется вместе с заголовками методом parse, а правильный ответ будет сканироваться методом parse_items.

Метод parse_items никогда не вызывается и процесс оболочки никогда не запускается. Я не понимаю, почему parse_items не достигнут. Есть ли способ определить метод, такой как start_requests, поэтому я могу переопределить поведение метода parse для класса SitemapSpider.

class MySpider(SitemapSpider):

    name = 'myspider'

    sitemap_urls = [
        'https://www.iproperty.com.my/sitemap_index.xml',
    ]

    sitemap_rules = [
        ('/property', 'parse'),
    ]

    headers = {
        'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.100 Safari/537.36'
    }

    def parse(self, response):
        yield scrapy.Request(
            url=response.url,
            method='GET',
            headers=self.headers,
            callback=self.parse_items
        )


    def parse_items(self, response):
        from scrapy.shell import inspect_response
        inspect_response(response, self)
0
gunesevitan 8 Июл 2019 в 21:49

3 ответа

Лучший ответ

Согласно SitemapSpider исходному коду (v 1.6 ) он не вызывает функцию parse как обратный вызов (как это делает Spider):

def start_requests(self):
    for url in self.sitemap_urls:
        yield Request(url, self._parse_sitemap)

Как видите, он не добавляет никаких конкретных заголовков.
Вам нужно соблюдать исходный код SitemapSpider и переопределять некоторые его методы.

Я заметил еще одну вещь. Я не помню, чтобы у пауков было значение headers. Вы имели в виду DEFAULT_REQUEST_HEADERS установка ?:

class MySpider(SitemapSpider):

    name = 'myspider'

    sitemap_urls = [
        'https://www.iproperty.com.my/sitemap_index.xml',
    ]

    sitemap_rules = [
        ('/property', 'parse'),
    ]
    CUSTOM_SETTINGS = {
        DEFAULT_REQUEST_HEADERS : {
            'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.100 Safari/537.36'
    }}
....
2
Georgiy 8 Июл 2019 в 19:22

Вы можете использовать DEFAULT_REQUEST_HEADERS настройки, которые вы можете установить на своем пауке, используя custom_settings атрибут класса.

Если это недостаточно гибко для вас, воспользуйтесь подходом Георгия к переопределению SitemapSpider или напишите своего собственного паука из царапина на основе этого.

1
Gallaecio 9 Июл 2019 в 09:50

Как насчет немного другого подхода для достижения того же? Если вы попытаетесь использовать BeautifulSoup в рамках scrapy, то результат будет именно таким, как вы ожидали. Возможно, именно парсер отвечает за получение ответа.

from bs4 import BeautifulSoup
import scrapy

class SitMapSpider(scrapy.Spider):
    name = 'sitemap'
    start_urls = ['https://www.iproperty.com.my/sitemap_index.xml']

    def start_requests(self):
        for url in self.start_urls:
            yield scrapy.Request(url, self.parse)

    def parse(self,response):
        soup = BeautifulSoup(response.text, 'xml')
        for item in soup.select('sitemap > loc'):
            yield scrapy.Request(item.text,self.parse_more_links)

    def parse_more_links(self,response):
        soup = BeautifulSoup(response.text, 'xml')
        for item in soup.select('url > loc'):
            if not "/property" in item.text:continue
            yield {"item": item.text}
0
SIM 9 Июл 2019 в 05:02