ИСПОЛЬЗУЙТЕ ТОЛЬКО ДЛЯ БИБЛИОТЕКИ ЗАПРОСОВ PYTHON. Requests - это полнофункциональная библиотека Python HTTP с простым в использовании логическим API.

Подробнее про python-requests...

Итак, я пытаюсь импортировать определение слова из Google Dictionary API. Но что-то пошло не так, вот код: import requests import json word = "Hello" url = "https://api.dictionaryapi.dev/api/v2/entries/en_GB/"+word r = requests.get(url) data = r.json() definition = data['meanings'][1]['definiti....
14 Фев 2021 в 01:55
Я имею дело с API Fox news , и ответ не распознается как известный тип данных для меня или Python. вот образец ответа: // API callback __jp0({ "kind": "customsearch#search", "url": { }, "queries": { "request": [ { "totalResults": "791000", "count": 10, "st....
13 Фев 2021 в 11:35
class Student: def __init__(self,m1,m2): self.m1=m1 self.m2=m2 def add(self,s1,s2): summ1 = self.m1 + self.m2 summ2 = s1.m1 + s1.m2 summ3 = s2.m1 + s2.m2 std1=Student(89,99) std2=Student(95,99) std3=Student(95,99) std1.add(std2,std3) print(summ1) pr....
13 Фев 2021 в 09:50
Я хочу очистить некоторые изображения с веб-сайта, в частности этого. К сожалению, изображения оказываются в недоступном для меня месте; если вы проверите элемент и выполните поиск displate-tile--limited d__relative displate-tile--limited-upcoming или определенно проверите элемент один из продуктов....
4 Фев 2021 в 18:26
Я написал следующий код на python3, который отлично работает: now = datetime.now() current_time = now.strftime("%H:%M:%S") message = "" run_again = False try: response = requests.get(url, headers=headers, cookies=cookies, allow_redirects=False) except requests.exceptions.RequestException as e: ....
13 Янв 2021 в 13:50
Я пытаюсь захватить исключения в один объект json и распечатать результат import json, sys, traceback import requests output = {} try: r = requests.get('http://wwww.google.com/nothere') r.raise_for_status() print(r) except requests.exceptions.Timeout as et: output['status_code']='TI....
12 Янв 2021 в 00:33
Я использую session.request звонить несколько раз в разных местах. Я хочу заблокировать его журнал для определенного звонка. Как я могу этого добиться. Я подумал, что мы можем заблокировать его для всех вызовов запросов, используя следующий метод logging.basicConfig(filename=filename, ....
11 Янв 2021 в 15:20
Я пытаюсь создать сценарий для анализа различных номеров деталей с веб-страницы с помощью запросов. Если вы перейдете по этой ссылке и нажмете на вкладку Product list, вы увидите номера деталей. Обозначает, где находятся номера деталей. Я пробовал: import requests link = 'https://www.festo.com/c....
Я использую частный прокси-сервер ротации, предоставленный (https://proxy.webshare.io/proxy/rotating?), в котором каждый запрос к вращающемуся прокси получает новый IP-адрес. когда я использую requests.get('https://httpbin.org/get', headers=headers, proxies=get_proxy()) он возвращает новый IP каж....
20 Дек 2020 в 11:14
Итак, я писал программу, которая использует библиотеку запросов. При попытке что-то сделать я получил эту ошибку: Traceback (most recent call last): File "C:\Users\myste\Desktop\Bang.com keker\e.py", line 10, in <module> print(requests.get('https://www.bang.com/login_check',headers=headd,json....
18 Дек 2020 в 22:23
Я пытаюсь выбрать сохранение определенного значения «идентификатора» (392861) из файла URL-адреса JSON после получения JSON с помощью запроса GET: getBooking = s.get("https://www.goodlifefitness.com/content/goodlife/en/book-workout/jcr:content/root/responsivegrid/workoutbooking.GetWorkoutSlots.7.202....
16 Дек 2020 в 20:57
У меня проблемы со вторым запросом r.html.xpath. Когда на предмет действует специальная сделка, второй Xpath изменяется с // * [@ id = "priceblock_ourprice"] К // * [@ id = "priceblock_dealprice"] Это приводит к сбою сценария, поскольку правильный xpath не может быть возвращен. Как я могу включить....
16 Дек 2020 в 00:07
Я пытаюсь получить доступ к странице https://seekingalpha.com/api/v3 / symbols / hsy / press-Release с использованием python requests. Если я перейду на страницу вручную, открою панель инструментов разработки и проверю запросы https://seekingalpha.com/api/v3/news?filter [category] = market-news% 3A....
15 Дек 2020 в 08:04
У меня проблемы с выводом этого скрипта. Когда ответ возвращается, в ответе "подробности" присутствует фраза "\ n". Как я могу сохранить ответ в формате CSV без символа "\ n"? Спасибо за любые предложения. from requests_html import HTMLSession def getPrice(url): s = HTMLSession() r = s.g....
Итак, я пробовал Selenium раньше и теперь хотел протестировать bs4. Я попытался запустить следующий код, но на выходе получил None. res_pewdiepie = requests.get( 'https://www.youtube.com/user/PewDiePie') soup = bs4.BeautifulSoup(res_pewdiepie.content, "lxml") subs = soup.find(id="sub-count") pr....
Я пытаюсь сделать HTTP-запрос с файлом в качестве ввода и некоторыми токенами, которые я передаю в заголовке запроса, который отлично работает от почтальона, но то же самое не работает через код python ниже - это код, который я пытаюсь но получаю ошибку 401 files = {'upload_file': open('small.csv',....
На основе кода из здесь, я могу сканировать url для каждой передачи и сохранять их в файл Excel, который можно скачать здесь. Теперь я хотел бы пойти дальше и щелкнуть ссылку url: Для каждого url мне нужно будет открывать и сохранять файлы формата pdf: Как я мог сделать это на Python? Любая помощь....
html_text = requests.get('https://www.trustpilot.com/categories/restaurants_bars? numberofreviews=0&status=claimed&timeperiod=0').text soup = BeautifulSoup(html_text, 'lxml') restaurants = soup.find_all('a', class_ = 'internal___1jK0Z wrapper___26yB4') for index, restaurant in enumerate(restaurants....
У меня есть такая строка ниже data = '[{"cId": "y02", "name": "Test 02", "description": "My Test"}]' Я отправляю эти данные в HTTP-запросе, например import requests headers = { 'Content-Type': 'application/json', } response = requests.post('http://localhost:8000/targets', headers=headers,dat....
Я пытаюсь зациклить страницы из этого link и извлеките интересную часть. Пожалуйста, посмотрите содержимое в красном кружке на изображении ниже. Вот что я пробовал: url = 'http://so.eastmoney.com/Ann/s?keyword=购买物业&pageindex={}' for page in range(10): r = requests.get(url.format(page)) soup....
Каждое утро округ Малтнома сообщает, можно ли развести огонь в камине. Вместо того, чтобы каждый день заходить на сайт, я пытаюсь автоматизировать процесс с помощью приложения, которое получает изображение с сервера, которое показывает статус. Прямо сейчас скрипт успешно дает мне ссылку на изображен....
2 Дек 2020 в 04:47
Я пытаюсь открыть каждую компанию из компаний StackOverflow и получить конкретную информацию (например, полное описание). Есть ли простой способ сделать это с помощью Beautiful Soup? На данный момент я получаю ссылки компаний на первой странице. import requests from bs4 import BeautifulSoup r = req....
Привет, это мой код: >>> from bs4 import BeautifulSoup >>> import requests >>> url="http://localhost:8000/GetDetailsItem.html" >>> content=requests.get(url) >>> soup=BeautifulSoup(content.text) >>> print(soup) Затем я распечатываю его, как показано ниже: <!DOCTYPE html> <html> <head> <meta content....
У меня следующая проблема. Я хочу скачать zip-файл. См. Следующий код: import os import requests import time url = "https://kriminalita.policie.cz/api/v1/downloads/202011.csv.zip" name = url.split("/")[-1] response = requests.get(url) with open(os.path.join(r'C:\Users\misak\Desktop\LD_save\staze....
1 Дек 2020 в 15:13
Я развернул функцию Python 3.7 в облаке Google. Мне нужно получить идентификатор проекта через код, чтобы узнать, где он развернут. Я пишу небольшой скрипт на Python 3.7 и тестирую его через командную строку оболочки Google. import urllib import urllib.request url="http://metadata.google.internal/co....