我运行一个容器在后台使用

 docker run -d --name hadoop h_Service

它很快就会消失。但如果我在前台运行,它工作得很好。我用

docker logs hadoop

没有错误。什么好主意吗?

DOCKERFILE

 FROM java_ubuntu_new
 RUN wget http://archive.cloudera.com/cdh4/one-click-install/precise/amd64/cdh4-repository_1.0_all.deb
 RUN dpkg -i cdh4-repository_1.0_all.deb
 RUN curl -s http://archive.cloudera.com/cdh4/ubuntu/precise/amd64/cdh/archive.key | apt-key add -
 RUN  apt-get update
 RUN apt-get install -y hadoop-0.20-conf-pseudo
 RUN dpkg -L hadoop-0.20-conf-pseudo
 USER hdfs
 RUN hdfs namenode -format
 USER root
 RUN apt-get install -y sudo
 ADD . /usr/local/
 RUN chmod 777 /usr/local/start-all.sh
 CMD ["/usr/local/start-all.sh"]

start-all.sh

 #!/usr/bin/env bash
 /etc/init.d/hadoop-hdfs-namenode start
 /etc/init.d/hadoop-hdfs-datanode start
 /etc/init.d/hadoop-hdfs-secondarynamenode start
 /etc/init.d/hadoop-0.20-mapreduce-tasktracker start
 sudo -u hdfs hadoop fs -chmod 777 /
 /etc/init.d/hadoop-0.20-mapreduce-jobtracker start
 /bin/bash

当前回答

如果您只需要运行一个容器而不退出,那么只需运行即可

docker run -dit --name MY_CONTAINER MY_IMAGE:latest

然后

docker exec -it MY_CONTAINER /bin/bash

你会在容器的bash shell中,它不应该退出。

或者如果退出发生在docker-compose期间,则使用

command: bash -c "MY_COMMAND --wait"

正如这里的其他两个答案所述(虽然不是很清楚地指docker-compose,这就是为什么我仍然再次提到“等待”技巧)。

我试过了,再等一会儿,没有效果。它一定是一些自己编写的python或shell代码的参数。如果我有时间,我会去查的。它应该是一个很好的默认值,因为它是由专业人员编写的。也许这也只是掩盖了这个Q/A中的另一个答案。

其他回答

我想扩展或者我敢说,改进camposer提到的答案

当你奔跑

docker run -dit ubuntu

您基本上是以交互模式在后台运行容器。

当你通过CTRL+D(最常用的方法)附加并退出容器时,你停止了容器,因为你刚刚杀死了用上面的命令启动容器的主进程。

利用一个已经运行的容器,我只需要fork bash的另一个进程,并通过运行来获得一个伪TTY:

docker exec -it <container ID> /bin/bash

由于映像是linux,因此要检查的一件事是确保容器中使用的任何shell脚本都有unix行结束符。如果它们的末尾有^M,那么它们就是窗口行结束符。修复它们的一种方法是在/usr/local/start-all.sh上使用dos2unix将它们从windows转换为unix。以交互模式运行docker可以帮助解决其他问题。可能是文件名打错了。参见https://en.wikipedia.org/wiki/Newline

这对我来说很管用:

docker run -dit ubuntu

之后,我检查了运行的进程使用:

docker ps -a

用于再次附加容器

docker attach CONTAINER_NAME

提示:在不停止容器的情况下退出容器类型:^P^Q

添加

exec "$@"

在我的shell脚本的末尾是我的修复!

一个很好的方法是启动你的进程和服务,在后台运行它们,并使用等待[n…]命令。在bash中,wait命令强制当前进程:

等待每个指定的进程并返回其终止状态。如果不指定n,则等待所有当前活动的子进程,并且返回状态为0。

我从Sébastien Pujadas的开始脚本为他的麋鹿构建得到这个想法。

从最初的问题来看,你的start-all.sh看起来像这样…

 #!/usr/bin/env bash
 /etc/init.d/hadoop-hdfs-namenode start &
 /etc/init.d/hadoop-hdfs-datanode start &
 /etc/init.d/hadoop-hdfs-secondarynamenode start &
 /etc/init.d/hadoop-0.20-mapreduce-tasktracker start &
 sudo -u hdfs hadoop fs -chmod 777 /
 /etc/init.d/hadoop-0.20-mapreduce-jobtracker start &
 wait