<div dir="ltr">Hey everyone, <div><br></div><div>I&#39;ve gotten a bit further along in my project and run into a new issue. Right now, to make my system work, I name my docker containers and keep them around. But since they&#39;re all (essentially) identical, I&#39;d like to just delete them and create new ones as needed. So, I&#39;m working on checkpointing a container, and then later restoring the image files into a new container. </div><div><br></div><div>This seems to half work. Here&#39;s a dump and restore log from two separate containers (I included the args sent to criu):</div><div><br></div><div>dump: <a href="https://gist.github.com/boucher/9cc5a952a82c8f8b01b5">https://gist.github.com/boucher/9cc5a952a82c8f8b01b5</a><br></div><div>restore: <a href="https://gist.github.com/boucher/ffb6699353e01a09dff5">https://gist.github.com/boucher/ffb6699353e01a09dff5</a></div><div><br></div><div>Criu reports that the restore worked successfully, but after the restore the new container/process immediately dies (the process itself is just a simple bash script that echoes in a loop forever). No errors are printed anywhere by docker or criu that I can find. </div><div><br></div><div>The only information I have to go on right now is the exit code (141), and the logs. My hunch is that it has to do with the cgroup info in the image files, since the id of the original container (03cc978e3d29....) is making its way into the restore log as well.</div><div><br></div><div>I appreciate any suggestions. I&#39;m going to be playing around with --cgroup-root next to see if I can make that work.</div><div><br></div><div>- Ross</div><div><br></div></div>