我正试着创建一个cronjob,在灾难发生之前每晚备份我的数据库。看起来这个命令应该能满足我的需求:

0 3 * * * pg_dump dbname | gzip > ~/backup/db/$(date +%Y-%m-%d).psql.gz

只是在运行之后,它要求我输入密码。如果我从cron运行它,我就做不到这一点。我怎样才能自动输入一个?


当前回答

对于Windows, pgpass.conf文件应该存在于以下路径:

%APPDATA%\postgresql\pgpass.conf

在我的Windows 10绝对路径上是:

C:\Users\Ognjen\AppData\Roaming\postgresql\pgpass.conf

注意:如果%APPDATA%中没有postgresql文件夹,请创建一个包含pgpass.conf文件的postgresql文件夹。

pgpass.conf的内容可以是:

*:5432:*:*:myDbPassword

或者更具体的内容可以是:

localhost:5432:dbName:username:password

注意:pgpass.conf的内容不能以空格结尾(密码后),否则会出现错误。

其他回答

在pg_dump将运行的帐户的主目录中创建一个.pgpass文件。

格式为:

hostname:port:database:username:password

然后,将文件模式设置为0600。否则,它将被忽略。

chmod 600 ~/.pgpass

更多细节请参阅Postgresql文档libpq-pgpass。

您可以通过以下方式直接将密码传递到pg_dump:

pg_dump "host=localhost port=5432 dbname=mydb user=myuser password=mypass" > mydb_export.sql

使用临时的.pgpass凭据通过ssh备份密码并推送到S3:

#!/usr/bin/env bash
cd "$(dirname "$0")"

DB_HOST="*******.*********.us-west-2.rds.amazonaws.com"
DB_USER="*******"
SSH_HOST="my_user@host.my_domain.com"
BUCKET_PATH="bucket_name/backup"

if [ $# -ne 2 ]; then
    echo "Error: 2 arguments required"
    echo "Usage:"
    echo "  my-backup-script.sh <DB-name> <password>"
    echo "  <DB-name> = The name of the DB to backup"
    echo "  <password> = The DB password, which is also used for GPG encryption of the backup file"
    echo "Example:"
    echo "  my-backup-script.sh my_db my_password"
    exit 1
fi

DATABASE=$1
PASSWORD=$2

echo "set remote PG password .."
echo "$DB_HOST:5432:$DATABASE:$DB_USER:$PASSWORD" | ssh "$SSH_HOST" "cat > ~/.pgpass; chmod 0600 ~/.pgpass"
echo "backup over SSH and gzip the backup .."
ssh "$SSH_HOST" "pg_dump -U $DB_USER -h $DB_HOST -C --column-inserts $DATABASE" | gzip > ./tmp.gz
echo "unset remote PG password .."
echo "*********" | ssh "$SSH_HOST" "cat > ~/.pgpass"
echo "encrypt the backup .."
gpg --batch --passphrase "$PASSWORD" --cipher-algo AES256 --compression-algo BZIP2 -co "$DATABASE.sql.gz.gpg" ./tmp.gz

# Backing up to AWS obviously requires having your credentials to be set locally
# EC2 instances can use instance permissions to push files to S3
DATETIME=`date "+%Y%m%d-%H%M%S"`
aws s3 cp ./"$DATABASE.sql.gz.gpg" s3://"$BUCKET_PATH"/"$DATABASE"/db/"$DATETIME".sql.gz.gpg
# s3 is cheap, so don't worry about a little temporary duplication here
# "latest" is always good to have because it makes it easier for dev-ops to use
aws s3 cp ./"$DATABASE.sql.gz.gpg" s3://"$BUCKET_PATH"/"$DATABASE"/db/latest.sql.gz.gpg

echo "local clean-up .."
rm ./tmp.gz
rm "$DATABASE.sql.gz.gpg"

echo "-----------------------"
echo "To decrypt and extract:"
echo "-----------------------"
echo "gpg -d ./$DATABASE.sql.gz.gpg | gunzip > tmp.sql"
echo

显然,只需将前两行配置替换为您需要的任何配置。 对于那些对S3备份部分不感兴趣的人,显然可以把它去掉。

该脚本随后删除.pgpass中的凭据,因为在某些环境中,默认的SSH用户无需密码就可以sudo,例如EC2实例中的ubuntu用户,因此使用.pgpass与不同的主机帐户来保护这些凭据,可能是毫无意义的。

注意,在windows中,pgpass.conf文件必须在以下文件夹中:

%APPDATA%\postgresql\pgpass.conf

如果%APPDATA%文件夹中没有postgresql文件夹,创建它。

pgpass.conf文件内容如下:

localhost:5432:dbname:dbusername:dbpassword

干杯

另一种(可能不安全)传递密码的方法是使用输入重定向,即调用

Pg_dump [params] <[包含密码的文件路径]