为什么下面的项目失败了?为什么它成功与“拉丁-1”编解码器?

o = "a test of \xe9 char" #I want this to remain a string as this is what I am receiving
v = o.decode("utf-8")

结果是:

 Traceback (most recent call last):  
 File "<stdin>", line 1, in <module>  
 File "C:\Python27\lib\encodings\utf_8.py",
 line 16, in decode
     return codecs.utf_8_decode(input, errors, True) UnicodeDecodeError:
 'utf8' codec can't decode byte 0xe9 in position 10: invalid continuation byte

当前回答

解决方案改为“UTF-8 sin BOM”

其他回答

我遇到了这个问题,原来我直接从谷歌表文件中保存了我的CSV。换句话说,我在一个谷歌表文件中。我选择,保存一个副本,然后当我的浏览器下载它时,我选择了打开。然后直接保存了CSV。这是错误的一步。

对我来说,解决这个问题的方法是首先在我的本地电脑上将表格保存为.xlsx文件,然后将表格导出为.csv文件。然后,pd.read_csv('myfile.csv')的错误消失了

使用这个,如果它显示UTF-8的错误

pd.read_csv('File_name.csv',encoding='latin-1')

Utf-8代码错误通常发生在数值范围超过0到127时。

引发这个异常的原因是:

1)如果编码点< 128,则每个字节都与编码点的值相同。 2)如果编码点为128或更大,则Unicode字符串不能在此编码中表示。(Python在这种情况下会引发UnicodeEncodeError异常。)

为了克服这个问题我们有了一套编码,使用最广泛的是“Latin-1,也称为ISO-8859-1”

因此,ISO-8859-1 Unicode点0-255与Latin-1值相同,因此转换为这种编码只需将代码点转换为字节值;如果遇到大于255的码位,则不能将字符串编码为Latin-1

当您试图加载数据集时发生此异常时,请尝试使用此格式

df=pd.read_csv("top50.csv",encoding='ISO-8859-1')

在语法的末尾添加编码技术,然后接受加载数据集。

在二进制中,0xE9看起来像1110 1001。如果您在Wikipedia上阅读有关UTF-8的内容,就会看到这样的字节后面必须跟两个10xx xxxx形式的字节。举个例子:

>>> b'\xe9\x80\x80'.decode('utf-8')
u'\u9000'

但这只是异常的机械原因。在本例中,您的字符串几乎肯定是用latin 1编码的。你可以看到UTF-8和latin 1看起来有什么不同:

>>> u'\xe9'.encode('utf-8')
b'\xc3\xa9'
>>> u'\xe9'.encode('latin-1')
b'\xe9'

(注意,这里我混合使用了Python 2和Python 3的表示法。输入在任何版本的Python中都是有效的,但Python解释器不太可能以这种方式同时显示unicode和字节字符串。)

解决方案改为“UTF-8 sin BOM”