ИСПОЛЬЗУЙТЕ ТОЛЬКО ДЛЯ БИБЛИОТЕКИ ЗАПРОСОВ PYTHON. Requests - это полнофункциональная библиотека Python HTTP с простым в использовании логическим API.

Подробнее про python-requests...

Все работает нормально, когда я использую ссылку (https://docs.google.com /spreadsheet/ccc?key=XXXXXXXXX&output=csv) в браузере. Почему я всегда получаю сообщение об ошибке, используя этот скрипт: import requests response = requests.get("https://docs.google.com/spreadsheet/ccc?key=XXXXXXXXX&output....
4 Фев 2022 в 12:46
Я пытался загрузить PDF-файл с помощью запросов, но независимо от того, что я делаю, он продолжает возвращать 403 в качестве статуса, и невозможно открыть загруженный PDF-файл. Вот код, который я запускаю: import requests url_pdf='https://www.agerborsamerci.it/wp-content/uploads/2022/01/Settiman....
2 Фев 2022 в 20:00
Я предоставил пользователю API для загрузки файла, передав имя файла в качестве параметра URL: https://example.com/download_file/<filename> В моем коде Python я буду использовать имя файла для создания URL-адреса заголовка и отправки запроса на другой сервер: import requests url = 'http://<route>/{....
2 Фев 2022 в 18:07
Я пытаюсь проанализировать содержимое текстового файла в Интернете, а затем извлечь все URL-адреса. Все работает нормально, кроме части извлечения URL. Этого не происходит. Я попробовал тот же процесс с локальным файлом, и это сработало. Что не так? КОМАНДА import requests import re from io impo....
2 Фев 2022 в 14:47
import bs4 import requests url ="https://www.passiton.com/inspirational-quotes?page=2" response = requests.get(url) soup = bs4.BeautifulSoup(response.content) article_element = soup.findAll('img') for i, article in enumerate(article_element): with open('inspiration{}.jpg'.format(i),'wb') as file: ....
Я хотел бы, чтобы Python просматривал текстовый файл и проверял код состояния каждого URL-адреса в этом файле. Затем Python может создать новый текстовый файл и ввести в каждую строку URL-адрес и соответствующий код состояния. Как я могу это сделать? Это мой неполный сценарий ниже: import request....
Я использовал следующую команду, чтобы получить код состояния твита: import requests response = requests.get("https://twitter.com/jack/38373837") status_code = response.status_code print(status_code) ---------------------- 200 Я ожидал 404. Но получил 200. Есть ли другая команда или, возможно, ....
31 Янв 2022 в 23:04
Итак, я использую приведенный ниже код, чтобы очистить CSV доменов названий компаний и веб-сайтов (около 10 000) для ссылок «mailto:» и попытаться сохранить их в CSV, когда найдены ссылки mailto. Но иногда я сталкиваюсь с ошибками «временный сбой поиска DNS» и «время ожидания подключения». Мне нужн....
31 Янв 2022 в 16:44
У меня есть поток application/octect с приложением/zip в качестве тела в запросах. Объект ответа, возвращенный из вызова API с файлом csv внутри него. Я пытаюсь прочитать CSV-файл в pandas без записи на диск, если это возможно. И если я хочу записать zip-файл в путь как zip-файл, как я могу это сд....
31 Янв 2022 в 14:57
Я создал простой скребок Python с запросами и BeautifulSoup, который сканирует сайт каждые 3 минуты с помощью crojobs, чтобы увидеть, содержит ли он слово «собака». Если слово присутствует, скрипт отправит электронное письмо. Проблема в том, что скрипт продолжает отправлять электронное письмо кажд....
Поэтому, когда я получаю доступ к цели API через Postman с приведенным ниже URL-адресом, он отлично работает без каких-либо проблем. base_url = https://api.cats.net/orgs/CatEmpire/audit-log?phrase=action:stuck_on_tree+date_of_event:2022-01-11 Однако, когда я добавляю приведенные ниже параметры в св....
31 Янв 2022 в 06:16
Я должен вызвать API следующим образом: import requests from requests.auth import HTTPBasicAuth response= requests.get("https://api.com/?device_id=1&timestamp__gte=2021-09-01T18:30:00Z&timestamp__lte=2021-09-02T18:30:00Z",auth = HTTPBasicAuth('user', 'password')) Я должен использовать переменные st....
30 Янв 2022 в 11:35
Я использую следующий код Python для очистки данных с помощью запроса формы. Но я получил 500 ошибку. Может ли кто-нибудь помочь найти исправление? Спасибо! import re,time,random,datetime,string import urllib.request import requests from bs4 import BeautifulSoup from datetime import timedelta fro....
28 Янв 2022 в 21:24
У меня есть файл .json с некоторыми данными JSON, как показано ниже, main.json [ { "App_id": "", "mobile_No": 8****65128, "loan_type": 33, "bank_id": 114, "latest_status": "Rejected", "bank_appid": "", "pan_no": "", "cust_downloaded....
28 Янв 2022 в 13:26
Я пытаюсь получить список zpid с этой веб-страницы с помощью модуля запросов. ZPID доступны в списке рядом с searchListZpids в исходном коде страницы (ctrl + u). Их 40 штук. Сценарий ниже может безошибочно получить zpids. Однако проблема заключается в том, что список, создаваемый скриптом, отлича....
27 Янв 2022 в 20:32
Я пытаюсь заполнить html-форму и получить ожидаемый результат, как я получаю, когда заполняю вручную. Но я терплю неудачу. Я пытаюсь заполнить сайт https://www.desco.org.bd/ebill/login.php значением 32000001. Пока моя попытка выглядит следующим образом: import requests #LOGIN_URL = 'https://www.....
Итак, у меня есть бот разногласий, и я пытаюсь заставить его отправлять сообщение в зависимости от ответа на запрос. @commands.command() async def ttcheck(self, ctx, msg): url = requests.get(f"https://www.tiktok.com/@{msg}") print(url) if url == "<Response [404]>": aw....
27 Янв 2022 в 06:38
У меня есть локальный файл default.xlsx. Я отправляю его https://v2.convertapi.com. Я беру содержимое из ответа и пытаюсь сохранить его в default.pdf. У меня нет сообщения об ошибке. Когда я пытаюсь открыть созданный PDF-файл, он выглядит поврежденным. import requests import base64 f = open("defaul....
26 Янв 2022 в 17:20
Я пытаюсь сделать простой WebScrapper для мониторинга сайта Nike здесь, в Бразилии. В основном я хочу отслеживать продукты, которые есть в наличии прямо сейчас, чтобы проверять, когда добавляются новые продукты. Моя проблема в том, что когда я перехожу на сайт https://www.nike.com.br/ snkrs#estoqu....
26 Янв 2022 в 07:02
Я пытаюсь получить текст с этого сайта. . Это просто простой сайт только с текстом. При запуске приведенного ниже кода единственное, что он выводит, — это новая строка. Я должен сказать, что контент/текст веб-сайтов динамический, поэтому он меняется в течение нескольких минут. Моя версия модуля....
Я пытаюсь очистить Goodreads и, в частности, выпуски Goodreads, предоставив некоторые ISBN в качестве входных данных. Однако я получаю сообщение об ошибке и даже не на одном и том же шаге каждый раз при выполнении кода: Traceback (most recent call last): File "C:xxx.py", line 47, in <module> ....
Я очень новичок в python, и я пытаюсь сделать веб-скрапер, который собирает рекламу, размещенную людьми на этом голландском сайте, которую вы можете использовать для продажи своих старых вещей. Сначала я запрашиваю у пользователя search_term, расстояние и почтовый_код. Затем эти три переменные вст....
24 Янв 2022 в 23:00
Я очень начинающий разработчик, которому поручено автоматизировать создание, загрузку и преобразование запроса из Stripe Sigma. Я смог выполнить большую часть своей работы: у меня есть ежедневные запланированные запросы, которые генерируют отчет за предыдущие 24 часа, который связан с фиктивной учет....
24 Янв 2022 в 20:13
Я пытался получить табличное содержимое с этой веб-страницы с помощью модуля запросов . Однако, когда я выполняю приведенный ниже скрипт, я получаю что-то невнятное, кроме результатов, доступных в этой таблице: import requests from bs4 import BeautifulSoup link = 'https://cityofdavid.secure.force....
Я пытался получить все ссылки из кода элемента проверки этого веб-сайт со следующим кодом. import requests from bs4 import BeautifulSoup url = 'https://chromedriver.storage.googleapis.com/index.html?path=97.0.4692.71/' r = requests.get(url) soup = BeautifulSoup(r.text, 'html.parser') for link in....