ИСПОЛЬЗУЙТЕ ТОЛЬКО ДЛЯ БИБЛИОТЕКИ ЗАПРОСОВ PYTHON. Requests - это полнофункциональная библиотека Python HTTP с простым в использовании логическим API.
Все работает нормально, когда я использую ссылку (https://docs.google.com /spreadsheet/ccc?key=XXXXXXXXX&output=csv) в браузере. Почему я всегда получаю сообщение об ошибке, используя этот скрипт:
import requests
response = requests.get("https://docs.google.com/spreadsheet/ccc?key=XXXXXXXXX&output....
4 Фев 2022 в 12:46
Я пытался загрузить PDF-файл с помощью запросов, но независимо от того, что я делаю, он продолжает возвращать 403 в качестве статуса, и невозможно открыть загруженный PDF-файл.
Вот код, который я запускаю:
import requests
url_pdf='https://www.agerborsamerci.it/wp-content/uploads/2022/01/Settiman....
2 Фев 2022 в 20:00
Я предоставил пользователю API для загрузки файла, передав имя файла в качестве параметра URL:
https://example.com/download_file/<filename>
В моем коде Python я буду использовать имя файла для создания URL-адреса заголовка и отправки запроса на другой сервер:
import requests
url = 'http://<route>/{....
2 Фев 2022 в 18:07
Я пытаюсь проанализировать содержимое текстового файла в Интернете, а затем извлечь все URL-адреса. Все работает нормально, кроме части извлечения URL. Этого не происходит. Я попробовал тот же процесс с локальным файлом, и это сработало. Что не так?
КОМАНДА
import requests
import re
from io impo....
2 Фев 2022 в 14:47
import bs4
import requests
url ="https://www.passiton.com/inspirational-quotes?page=2"
response = requests.get(url)
soup = bs4.BeautifulSoup(response.content)
article_element = soup.findAll('img')
for i, article in enumerate(article_element):
with open('inspiration{}.jpg'.format(i),'wb') as file:
....
1 Фев 2022 в 10:26
Я хотел бы, чтобы Python просматривал текстовый файл и проверял код состояния каждого URL-адреса в этом файле. Затем Python может создать новый текстовый файл и ввести в каждую строку URL-адрес и соответствующий код состояния. Как я могу это сделать? Это мой неполный сценарий ниже:
import request....
1 Фев 2022 в 03:46
Я использовал следующую команду, чтобы получить код состояния твита:
import requests
response = requests.get("https://twitter.com/jack/38373837")
status_code = response.status_code
print(status_code)
----------------------
200
Я ожидал 404. Но получил 200.
Есть ли другая команда или, возможно, ....
31 Янв 2022 в 23:04
Итак, я использую приведенный ниже код, чтобы очистить CSV доменов названий компаний и веб-сайтов (около 10 000) для ссылок «mailto:» и попытаться сохранить их в CSV, когда найдены ссылки mailto. Но иногда я сталкиваюсь с ошибками «временный сбой поиска DNS» и «время ожидания подключения».
Мне нужн....
31 Янв 2022 в 16:44
У меня есть поток application/octect с приложением/zip в качестве тела в запросах. Объект ответа, возвращенный из вызова API с файлом csv внутри него. Я пытаюсь прочитать CSV-файл в pandas без записи на диск, если это возможно. И если я хочу записать zip-файл в путь как zip-файл, как я могу это сд....
31 Янв 2022 в 14:57
Я создал простой скребок Python с запросами и BeautifulSoup, который сканирует сайт каждые 3 минуты с помощью crojobs, чтобы увидеть, содержит ли он слово «собака». Если слово присутствует, скрипт отправит электронное письмо. Проблема в том, что скрипт продолжает отправлять электронное письмо кажд....
31 Янв 2022 в 12:29
Поэтому, когда я получаю доступ к цели API через Postman с приведенным ниже URL-адресом, он отлично работает без каких-либо проблем.
base_url = https://api.cats.net/orgs/CatEmpire/audit-log?phrase=action:stuck_on_tree+date_of_event:2022-01-11
Однако, когда я добавляю приведенные ниже параметры в св....
31 Янв 2022 в 06:16
Я должен вызвать API следующим образом:
import requests
from requests.auth import HTTPBasicAuth
response= requests.get("https://api.com/?device_id=1×tamp__gte=2021-09-01T18:30:00Z×tamp__lte=2021-09-02T18:30:00Z",auth = HTTPBasicAuth('user', 'password'))
Я должен использовать переменные st....
30 Янв 2022 в 11:35
Я использую следующий код Python для очистки данных с помощью запроса формы. Но я получил 500 ошибку. Может ли кто-нибудь помочь найти исправление? Спасибо!
import re,time,random,datetime,string
import urllib.request
import requests
from bs4 import BeautifulSoup
from datetime import timedelta
fro....
28 Янв 2022 в 21:24
У меня есть файл .json с некоторыми данными JSON, как показано ниже,
main.json
[
{
"App_id": "",
"mobile_No": 8****65128,
"loan_type": 33,
"bank_id": 114,
"latest_status": "Rejected",
"bank_appid": "",
"pan_no": "",
"cust_downloaded....
28 Янв 2022 в 13:26
Я пытаюсь получить список zpid с этой веб-страницы с помощью модуля запросов. ZPID доступны в списке рядом с searchListZpids в исходном коде страницы (ctrl + u). Их 40 штук.
Сценарий ниже может безошибочно получить zpids. Однако проблема заключается в том, что список, создаваемый скриптом, отлича....
27 Янв 2022 в 20:32
Я пытаюсь заполнить html-форму и получить ожидаемый результат, как я получаю, когда заполняю вручную. Но я терплю неудачу.
Я пытаюсь заполнить сайт https://www.desco.org.bd/ebill/login.php значением 32000001. Пока моя попытка выглядит следующим образом:
import requests
#LOGIN_URL = 'https://www.....
27 Янв 2022 в 18:38
Итак, у меня есть бот разногласий, и я пытаюсь заставить его отправлять сообщение в зависимости от ответа на запрос.
@commands.command()
async def ttcheck(self, ctx, msg):
url = requests.get(f"https://www.tiktok.com/@{msg}")
print(url)
if url == "<Response [404]>":
aw....
27 Янв 2022 в 06:38
У меня есть локальный файл default.xlsx.
Я отправляю его https://v2.convertapi.com.
Я беру содержимое из ответа и пытаюсь сохранить его в default.pdf.
У меня нет сообщения об ошибке.
Когда я пытаюсь открыть созданный PDF-файл, он выглядит поврежденным.
import requests
import base64
f = open("defaul....
26 Янв 2022 в 17:20
Я пытаюсь сделать простой WebScrapper для мониторинга сайта Nike здесь, в Бразилии. В основном я хочу отслеживать продукты, которые есть в наличии прямо сейчас, чтобы проверять, когда добавляются новые продукты.
Моя проблема в том, что когда я перехожу на сайт https://www.nike.com.br/ snkrs#estoqu....
26 Янв 2022 в 07:02
Я пытаюсь получить текст с этого сайта. . Это просто простой сайт только с текстом. При запуске приведенного ниже кода единственное, что он выводит, — это новая строка. Я должен сказать, что контент/текст веб-сайтов динамический, поэтому он меняется в течение нескольких минут. Моя версия модуля....
25 Янв 2022 в 23:52
Я пытаюсь очистить Goodreads и, в частности, выпуски Goodreads, предоставив некоторые ISBN в качестве входных данных. Однако я получаю сообщение об ошибке и даже не на одном и том же шаге каждый раз при выполнении кода:
Traceback (most recent call last):
File "C:xxx.py", line 47, in <module>
....
25 Янв 2022 в 19:24
Я очень новичок в python, и я пытаюсь сделать веб-скрапер, который собирает рекламу, размещенную людьми на этом голландском сайте, которую вы можете использовать для продажи своих старых вещей. Сначала я запрашиваю у пользователя search_term, расстояние и почтовый_код. Затем эти три переменные вст....
24 Янв 2022 в 23:00
Я очень начинающий разработчик, которому поручено автоматизировать создание, загрузку и преобразование запроса из Stripe Sigma.
Я смог выполнить большую часть своей работы: у меня есть ежедневные запланированные запросы, которые генерируют отчет за предыдущие 24 часа, который связан с фиктивной учет....
24 Янв 2022 в 20:13
Я пытался получить табличное содержимое с этой веб-страницы с помощью модуля запросов . Однако, когда я выполняю приведенный ниже скрипт, я получаю что-то невнятное, кроме результатов, доступных в этой таблице:
import requests
from bs4 import BeautifulSoup
link = 'https://cityofdavid.secure.force....
24 Янв 2022 в 09:35
Я пытался получить все ссылки из кода элемента проверки этого веб-сайт со следующим кодом.
import requests
from bs4 import BeautifulSoup
url = 'https://chromedriver.storage.googleapis.com/index.html?path=97.0.4692.71/'
r = requests.get(url)
soup = BeautifulSoup(r.text, 'html.parser')
for link in....
24 Янв 2022 в 06:31