示例代码(在REPL中):
import json
json_string = json.dumps("ברי צקלה")
print(json_string)
输出:
"\u05d1\u05e8\u05d9 \u05e6\u05e7\u05dc\u05d4"
问题是:它不是人类可读的。我的(智能)用户希望使用JSON转储来验证甚至编辑文本文件(我宁愿不使用XML)。
是否有方法将对象序列化为UTF-8 JSON字符串(而不是\uXXXX)?
示例代码(在REPL中):
import json
json_string = json.dumps("ברי צקלה")
print(json_string)
输出:
"\u05d1\u05e8\u05d9 \u05e6\u05e7\u05dc\u05d4"
问题是:它不是人类可读的。我的(智能)用户希望使用JSON转储来验证甚至编辑文本文件(我宁愿不使用XML)。
是否有方法将对象序列化为UTF-8 JSON字符串(而不是\uXXXX)?
当前回答
这是一个错误的答案,但了解为什么它是错误的仍然很有用。见注释。
使用unicode转义:
>>> d = {1: "ברי צקלה", 2: u"ברי צקלה"}
>>> json_str = json.dumps(d).decode('unicode-escape').encode('utf8')
>>> print json_str
{"1": "ברי צקלה", "2": "ברי צקלה"}
其他回答
使用ensure_ascii=False开关到json.dumps(),然后手动将值编码为UTF-8:
>>> json_string = json.dumps("ברי צקלה", ensure_ascii=False).encode('utf8')
>>> json_string
b'"\xd7\x91\xd7\xa8\xd7\x99 \xd7\xa6\xd7\xa7\xd7\x9c\xd7\x94"'
>>> print(json_string.decode())
"ברי צקלה"
如果要写入文件,只需使用json.dump()并将其留给file对象进行编码:
with open('filename', 'w', encoding='utf8') as json_file:
json.dump("ברי צקלה", json_file, ensure_ascii=False)
Python 2的注意事项
对于Python 2,还有一些需要注意的事项。如果要将其写入文件,可以使用io.open()而不是open()来生成一个文件对象,该对象在写入时为您编码Unicode值,然后使用json.dump()来写入该文件:
with io.open('filename', 'w', encoding='utf8') as json_file:
json.dump(u"ברי צקלה", json_file, ensure_ascii=False)
请注意,json模块中存在一个bug,其中ensure_ascii=False标志可以产生unicode和str对象的混合。Python 2的解决方法是:
with io.open('filename', 'w', encoding='utf8') as json_file:
data = json.dumps(u"ברי צקלה", ensure_ascii=False)
# unicode(data) auto-decodes data to unicode if str
json_file.write(unicode(data))
在Python 2中,当使用编码为UTF-8的字节字符串(类型str)时,请确保还设置了编码关键字:
>>> d={ 1: "ברי צקלה", 2: u"ברי צקלה" }
>>> d
{1: '\xd7\x91\xd7\xa8\xd7\x99 \xd7\xa6\xd7\xa7\xd7\x9c\xd7\x94', 2: u'\u05d1\u05e8\u05d9 \u05e6\u05e7\u05dc\u05d4'}
>>> s=json.dumps(d, ensure_ascii=False, encoding='utf8')
>>> s
u'{"1": "\u05d1\u05e8\u05d9 \u05e6\u05e7\u05dc\u05d4", "2": "\u05d1\u05e8\u05d9 \u05e6\u05e7\u05dc\u05d4"}'
>>> json.loads(s)['1']
u'\u05d1\u05e8\u05d9 \u05e6\u05e7\u05dc\u05d4'
>>> json.loads(s)['2']
u'\u05d1\u05e8\u05d9 \u05e6\u05e7\u05dc\u05d4'
>>> print json.loads(s)['1']
ברי צקלה
>>> print json.loads(s)['2']
ברי צקלה
Martijn指出,在json.dumps中使用ensure_ascii=False是解决这个问题的正确方向。但是,这可能会引发一个例外:
UnicodeDecodeError:“ascii”编解码器无法解码位置1中的字节0xe7:序号不在范围内(128)
您需要在site.py或sitecustomize.py中进行额外设置,以正确设置sys.getdefaultencoding()。site.py位于lib/python2.7/下,sitecustomize.py位于lib/python2.7/site-packages下。
如果要使用site.py,请在def setencoding()下:将第一个If 0:更改为If 1:以便Python使用操作系统的语言环境。
如果你更喜欢使用sitecustomize.py,如果你没有创建它,它可能不存在,只需添加以下行:
import sys
reload(sys)
sys.setdefaultencoding('utf-8')
然后,您可以以UTF-8格式进行一些中文JSON输出,例如:
name = {"last_name": u"王"}
json.dumps(name, ensure_ascii=False)
您将获得UTF-8编码的字符串,而不是转义的JSON字符串。
要验证默认编码,请执行以下操作:
print sys.getdefaultencoding()
您应该使用“utf-8”或“utf-8”来验证site.py或sitecustomize.py设置。
请注意,您不能在交互式Python控制台上执行sys.setdefaultencoding(“utf-8”)。
使用unicode转义解决问题
>>>import json
>>>json_string = json.dumps("ברי צקלה")
>>>json_string.encode('ascii').decode('unicode-escape')
'"ברי צקלה"'
解释
>>>s = '漢 χαν хан'
>>>print('Unicode: ' + s.encode('unicode-escape').decode('utf-8'))
Unicode: \u6f22 \u03c7\u03b1\u03bd \u0445\u0430\u043d
>>>u = s.encode('unicode-escape').decode('utf-8')
>>>print('Original: ' + u.encode("utf-8").decode('unicode-escape'))
Original: 漢 χαν хан
原始资源:Python3使用 unicode转义处理 unicode 16进制字符串编解码问题
如果可能,请使用编解码器,
with codecs.open('file_path', 'a+', 'utf-8') as fp:
fp.write(json.dumps(res, ensure_ascii=False))
感谢您的原始答案。对于Python 3,以下代码行:
print(json.dumps(result_dict,ensure_ascii=False))
没问题。如果不是强制性的,请考虑不要在代码中写太多文本。
这对于Python控制台来说可能足够好了。然而,为了满足服务器的要求,您可能需要按照这里的说明设置语言环境(如果是在Apache2上)使用mod_wsgi时设置LANG和LC_ALL
基本上,在Ubuntu上安装he_IL或任何语言区域设置。检查是否未安装:
locale -a
安装它,其中XX是您的语言:
sudo apt-get install language-pack-XX
例如:
sudo apt-get install language-pack-he
将以下文本添加到/etc/apache2/envvrs
export LANG='he_IL.UTF-8'
export LC_ALL='he_IL.UTF-8'
然后,您希望不会从Apache获得Python错误,例如:
打印(js)UnicodeEncodeError:“ascii”编解码器无法对位置41-45中的字符进行编码:序号不在范围内(128)
同样在Apache中,尝试将UTF设置为默认编码,如下所述:如何将Apache的默认编码更改为UTF-8
早点做,因为Apache错误很难调试,而且您可能会错误地认为它来自Python,而在这种情况下可能不是这样。