https://github.com/affinelayer/pix2pix-tensorflow/tree/master/tools

在上面的站点上编译“process.py”时发生错误。

 python tools/process.py --input_dir data --            operation resize --outp
ut_dir data2/resize
data/0.jpg -> data2/resize/0.png

回溯(最近一次调用):

File "tools/process.py", line 235, in <module>
  main()
File "tools/process.py", line 167, in main
  src = load(src_path)
File "tools/process.py", line 113, in load
  contents = open(path).read()
      File"/home/user/anaconda3/envs/tensorflow_2/lib/python3.5/codecs.py", line 321, in decode
  (result, consumed) = self._buffer_decode(data, self.errors, final)
UnicodeDecodeError: 'utf-8' codec can't decode     byte 0xff in position 0: invalid start byte

错误的原因是什么? Python的版本是3.5.2。


当前回答

我在遇到同样的错误时遇到了这个线程,在做了一些研究后,我可以确认,这是一个错误,当你试图用UTF-8解码UTF-16文件时发生。

在UTF-16中,第一个字符(在UTF-16中是2个字节)是字节顺序标记(Byte Order Mark, BOM),用于解码提示,不作为字符出现在解码后的字符串中。这意味着第一个字节将是FE或FF,第二个字节是另一个。

在我发现真正的答案后,被大量编辑

其他回答

只使用

base64.b64decode(a) 

而不是

base64.b64decode(a).decode('utf-8')

有一个类似的问题,最后使用UTF-16解码。我的代码如下。

with open(path_to_file,'rb') as f:
    contents = f.read()
contents = contents.rstrip("\n").decode("utf-16")
contents = contents.split("\r\n")

这将把文件内容作为导入,但它将以UTF格式返回代码。从那里开始,它将被解码并以行分隔。

Python尝试将一个字节数组(一个字节,它假设是一个utf-8编码的字符串)转换为unicode字符串(str)。这个过程当然是根据utf-8规则进行解码。当它尝试这样做时,它会遇到一个字节序列,该字节序列在utf-8编码的字符串中是不允许的(即位置0的0xff)。

由于你没有提供任何代码,我们可以看,我们只能猜测剩下的。

从堆栈跟踪中,我们可以假设触发操作是读取文件(contents = open(path).read())。我建议以这样的方式重新编码:

with open(path, 'rb') as f:
  contents = f.read()

open()中模式说明符中的b表示该文件应被视为二进制,因此内容将保持为字节。这种方式不会发生解码尝试。

如果您从串口接收数据,请确保您使用了正确的波特率(和其他配置):使用(utf-8)解码,但错误的配置将生成相同的错误

UnicodeDecodeError: 'utf-8'编解码器无法解码位置0中的0xff字节:无效的开始字节

查看linux上的串口配置:stty -F /dev/ttyUSBX -a

我在尝试使用pandas.read_csv()读取“.csv”文件时遇到了这个UnicodeDecodeError。在我的例子中,我无法使用其他编码器类型来克服这个问题。但是我们不用

pd.read_csv(filename, delimiter=';')

我使用:

pd.read_csv(open(filename, 'r'), delimiter=';')

这对我来说还行。

注意:在open()函数中,使用'r'而不是'rb'。因为'rb'返回的bytes对象首先导致了这个解码器错误,这与read_csv()中的问题相同。但是'r'返回str,这是需要的,因为我们的数据是.csv格式的,并且使用默认的encoding='utf-8'参数,我们可以使用read_csv()函数轻松地解析数据。