作为一个单独的工具,它工作得很好:
curl "someURL"
curl -o - "someURL"
但这在流水线上行不通:
curl "someURL" | tr -d '\n'
curl -o - "someURL" | tr -d '\n'
它返回:
(23) Failed writing body
管道cURL输出的问题是什么?如何缓冲整个cURL输出,然后处理它?
作为一个单独的工具,它工作得很好:
curl "someURL"
curl -o - "someURL"
但这在流水线上行不通:
curl "someURL" | tr -d '\n'
curl -o - "someURL" | tr -d '\n'
它返回:
(23) Failed writing body
管道cURL输出的问题是什么?如何缓冲整个cURL输出,然后处理它?
当前回答
另一种可能是,如果使用-o(输出文件)选项,目标目录不存在。
如。如果你有-o /tmp/download/abc.txt且/tmp/download不存在。
因此,确保任何需要的目录都是预先创建/存在的,使用——create-dirs选项,必要时使用-o
其他回答
对于完整性和将来的搜索:
这取决于cURL如何管理缓冲区,缓冲区使用-N选项禁用输出流。
例子: curl -s -N "URL" | grep -q欢迎
你可以这样做,而不是使用-o选项:
Curl [url] >[文件]
因为我自己的打字错误,我也有同样的问题:
# fails because of reasons mentioned above
curl -I -fail https://www.google.com | echo $?
curl: (23) Failed writing body
# success
curl -I -fail https://www.google.com || echo $?
就我而言,我在做: Curl <blabla> | jq | grep <blibli>
用jq。它工作:curl <blabla> | jq。| grep <blibli>
@Kaworu的解释很棒:https://stackoverflow.com/a/28879552/198219
当管道程序(例如grep)在前一个程序完成整个页面的写入之前关闭读管道时,就会发生这种情况。cURL没有预料到这一点,并发出“写入正文失败”错误。
一种解决方法是将流通过中间程序输送,该程序总是在将其提供给下一个程序之前读取整个页面。
我认为更正确的做法是使用海绵,就像@nisetama在评论中建议的那样:
Curl "url" |海绵| grep -qs foo