我试图获得应用商店>业务的内容:

import requests
from lxml import html

page = requests.get("https://itunes.apple.com/in/genre/ios-business/id6000?mt=8")
tree = html.fromstring(page.text)

flist = []
plist = []
for i in range(0, 100):
    app = tree.xpath("//div[@class='column first']/ul/li/a/@href")
    ap = app[0]
    page1 = requests.get(ap)

当我尝试(0,2)的范围,它工作,但当我把范围在100,它显示这个错误:

Traceback (most recent call last):
  File "/home/preetham/Desktop/eg.py", line 17, in <module>
    page1 = requests.get(ap)
  File "/usr/local/lib/python2.7/dist-packages/requests/api.py", line 55, in get
    return request('get', url, **kwargs)
  File "/usr/local/lib/python2.7/dist-packages/requests/api.py", line 44, in request
    return session.request(method=method, url=url, **kwargs)
  File "/usr/local/lib/python2.7/dist-packages/requests/sessions.py", line 383, in request
    resp = self.send(prep, **send_kwargs)
  File "/usr/local/lib/python2.7/dist-packages/requests/sessions.py", line 486, in send
    r = adapter.send(request, **kwargs)
  File "/usr/local/lib/python2.7/dist-packages/requests/adapters.py", line 378, in send
    raise ConnectionError(e)
requests.exceptions.ConnectionError: HTTPSConnectionPool(host='itunes.apple.com', port=443): Max retries exceeded with url: /in/app/adobe-reader/id469337564?mt=8 (Caused by <class 'socket.gaierror'>: [Errno -2] Name or service not known)

当前回答

当我在浏览器中运行路线时,我有同样的错误,但在邮差中,它工作得很好。我的问题是,在查询字符串之前的路由之后没有/。

127.0.0.1:5000 / api / v1 /搜索/ ?location=Madina提出错误,并在搜索对我有效后删除/。

其他回答

检查网络连接。我有这个,虚拟机没有一个正确的网络连接。

只需要导入时间 并补充:

time.sleep(6)

在for循环的某个地方,以避免在短时间内向服务器发送太多请求。 数字6意味着:6秒。 从1开始测试数字,直到达到有助于避免问题的最小秒数。

也可能是网络配置的问题。因此,为此你需要重新配置你的网络配置。

对于Ubuntu: Sudo vim /etc/network/interfaces

在dns-nameserver中添加“8.8.8.8”并保存。

重置你的网络:/etc/init.d /网络重启

现在试试. .

补充我自己的经验,为那些在未来正在经历这种情况的人。我的具体错误是

Failed to establish a new connection: [Errno 8] nodename nor servname provided, or not known'

事实证明,这实际上是因为我已经达到了系统上打开的文件的最大数量。它与失败的连接无关,甚至与所指出的DNS错误无关。

只需使用请求功能:

import requests
from requests.adapters import HTTPAdapter
from urllib3.util.retry import Retry


session = requests.Session()
retry = Retry(connect=3, backoff_factor=0.5)
adapter = HTTPAdapter(max_retries=retry)
session.mount('http://', adapter)
session.mount('https://', adapter)

session.get(url)

这将获取URL并重试3次,以防出现requests.exceptions.ConnectionError。Backoff_factor将有助于在尝试之间应用延迟,以避免在定期请求配额的情况下再次失败。

看一下urllib3.util.retry。重试,它有许多选项来简化重试。