我正在练习“使用Python进行网络抓取”的代码,我一直有这个证书问题:
from urllib.request import urlopen
from bs4 import BeautifulSoup
import re
pages = set()
def getLinks(pageUrl):
global pages
html = urlopen("http://en.wikipedia.org"+pageUrl)
bsObj = BeautifulSoup(html)
for link in bsObj.findAll("a", href=re.compile("^(/wiki/)")):
if 'href' in link.attrs:
if link.attrs['href'] not in pages:
#We have encountered a new page
newPage = link.attrs['href']
print(newPage)
pages.add(newPage)
getLinks(newPage)
getLinks("")
错误是:
File "/Library/Frameworks/Python.framework/Versions/3.7/lib/python3.7/urllib/request.py", line 1319, in do_open
raise URLError(err)
urllib.error.URLError: <urlopen error [SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed: unable to get local issuer certificate (_ssl.c:1049)>
顺便说一句,我也在练习scrapy,但一直得到的问题:命令找不到:scrapy(我尝试了各种在线解决方案,但没有一个工作…真的令人沮丧)
我在Ubuntu 20.04系统上看到了这个问题,没有一个“真正的修复”(比如这个)有帮助。
虽然Firefox愿意打开该站点,但GNOME Web(即Epiphany)、Python3或wget都不接受该证书。经过一些搜索,我在ServerFault上找到了这个答案,它列出了两个常见的原因:
该证书实际上是由一个未知CA(例如内部CA)签署的。
证书是用来自一个知名CA的中间CA证书签名的,远程服务器配置错误,因为它没有将该中间CA证书作为其响应的CA链。
您可以使用Qualys SSL实验室网站检查该网站的证书,如果有问题,请联系该网站的管理员进行修复。
如果你现在真的需要解决这个问题,我推荐一个临时解决方案,比如Rambod's仅限于你试图访问的网站。
我正在使用Debian 10 buster,并尝试用youtube-dl下载一个文件,并得到这个错误:
sudo youtube-dl -k https://youtu.be/uscis0CnDjk
[youtube] uscis0CnDjk:下载网页
<urlopen ERROR [SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed: Unable to get local issuer certificate (_ssl.c:1056)>(由URLError(SSLCertVerificationError(1, '[SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed: Unable to get local issuer certificate (_ssl.c:1056)')引起))
正确安装了python2和python3.8的证书,但我仍然收到相同的错误。
最后(这不是最好的解决方案,但对我来说是消除证书检查,因为它是youtube-dl中的一个选项)使用这个命令
sudo youtube-dl -k——no-check-certificate https://youtu.be/uscis0CnDjk
我在Ubuntu 20.04系统上看到了这个问题,没有一个“真正的修复”(比如这个)有帮助。
虽然Firefox愿意打开该站点,但GNOME Web(即Epiphany)、Python3或wget都不接受该证书。经过一些搜索,我在ServerFault上找到了这个答案,它列出了两个常见的原因:
该证书实际上是由一个未知CA(例如内部CA)签署的。
证书是用来自一个知名CA的中间CA证书签名的,远程服务器配置错误,因为它没有将该中间CA证书作为其响应的CA链。
您可以使用Qualys SSL实验室网站检查该网站的证书,如果有问题,请联系该网站的管理员进行修复。
如果你现在真的需要解决这个问题,我推荐一个临时解决方案,比如Rambod's仅限于你试图访问的网站。