<div dir="ltr"><div><div>Hello all;<br><br></div>Here is a link to the restore.log file (i have used the -v option)<br><a href="https://www.dropbox.com/s/vfiy6lqkibvco8m/restore.log?dl=0">https://www.dropbox.com/s/vfiy6lqkibvco8m/restore.log?dl=0</a><br></div><br><br>without -v option, i have only these lines:<br><br>Warn  (cr-restore.c:1029): Set CLONE_PARENT | CLONE_NEWPID but it might cause restore problem,because not all kernels support such clone flags combinations!<br>RTNETLINK answers: File exists<br>RTNETLINK answers: File exists<br>RTNETLINK answers: File exists<br>   782: Error (sk-inet.c:610): Can&#39;t bind inet socket: Invalid argument<br>~                                                                         <br><br>Thanks a lot for help. <br>Best Regards.<br><br><br></div><div class="gmail_extra"><br><div class="gmail_quote">2015-06-15 19:35 GMT+01:00 Pavel Emelyanov <span dir="ltr">&lt;<a href="mailto:xemul@parallels.com" target="_blank">xemul@parallels.com</a>&gt;</span>:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class="">On 06/15/2015 09:29 PM, Thouraya TH wrote:<br>
&gt; Hello;<br>
&gt;<br>
&gt; I have done new tests on my old container and the same problem:<br>
&gt;<br>
&gt; restore.log<br>
&gt; Warn  (cr-restore.c:1029): Set CLONE_PARENT | CLONE_NEWPID but it might cause restore problem,because<br>
&gt; not all kernels support such clone flags combinations!<br>
<br>
</span>This warning is harmless, it just informs that on some kernels the<br>
restore may fail. Fortunately no modern distros have such old kernels.<br>
<span class=""><br>
&gt; RTNETLINK answers: File exists<br>
&gt; RTNETLINK answers: File exists<br>
&gt; RTNETLINK answers: File exists<br>
&gt;    920: Error (sk-inet.c:610): Can&#39;t bind inet socket: Invalid argument<br>
<br>
</span>This one is likely causing the fault. Can you show full restore.log please?<br>
<span class=""><br>
&gt;<br>
&gt; root@g-23:/tmp# lxc-ls -f<br>
&gt; ^CTraceback (most recent call last):<br>
&gt;   File &quot;/usr/bin/lxc-ls&quot;, line 432, in &lt;module&gt;<br>
&gt;     containers = get_containers(root=True)<br>
&gt;   File &quot;/usr/bin/lxc-ls&quot;, line 261, in get_containers<br>
&gt;     if container.controllable:<br>
&gt; KeyboardInterrupt<br>
&gt;<br>
&gt;<br>
</span>&gt; /Do you have a way to reproduce this? I&#39;m not sure what it means<br>
<span class="">&gt; exactly, perhaps Pavel can elaborate. However, it would be nice to<br>
&gt; have a small testcase so I can try and fix it.<br>
&gt;<br>
&gt;<br>
&gt; /<br>
&gt;<br>
&gt; In this old container,i have (lxc bridge network, jdk, some other libraries, i have modified /etc/sudoers, etc... )<br>
&gt; i can&#39;t understand the source of the problem !<br>
&gt;<br>
&gt; Best Regards.<br>
&gt;<br>
&gt;<br>
&gt;<br>
</span>&gt; 2015-06-15 14:45 GMT+01:00 Tycho Andersen &lt;<a href="mailto:tycho.andersen@canonical.com">tycho.andersen@canonical.com</a> &lt;mailto:<a href="mailto:tycho.andersen@canonical.com">tycho.andersen@canonical.com</a>&gt;&gt;:<br>
<div><div class="h5">&gt;<br>
&gt;     On Sun, Jun 14, 2015 at 02:02:13PM +0100, Thouraya TH wrote:<br>
&gt;     &gt; Hello all;<br>
&gt;     &gt;<br>
&gt;     &gt; I have done two tests:  (criu 1.6)<br>
&gt;     &gt;<br>
&gt;     &gt; 1- *Test 1:*<br>
&gt;     &gt;    I have created a new container using:<br>
&gt;     &gt;                      lxc-create -t ubuntu -n worker2 http_proxy=True<br>
&gt;     &gt;<br>
&gt;     &gt;  *I have not installed any tool in this container.*<br>
&gt;     &gt;<br>
&gt;     &gt;   lxc-checkpoint -s -D /tmp/dire -n worker2<br>
&gt;     &gt;   lxc-checkpoint -r -D /tmp/dire -n worker2<br>
&gt;     &gt;<br>
&gt;     &gt; root@localhost:~# lxc-ls -f<br>
&gt;     &gt; NAME     STATE    IPV4       IPV6  GROUPS  AUTOSTART<br>
&gt;     &gt; ----------------------------------------------------<br>
&gt;     &gt; worker   STOPPED  -          -     -       NO<br>
&gt;     &gt; *worker2*  RUNNING  10.0.3.48  -     -       NO<br>
&gt;     &gt;<br>
&gt;     &gt; 2- *Test 2: *<br>
&gt;     &gt;<br>
&gt;     &gt; lxc-start -n worker  (it is an old worker: i have installed many tools in<br>
&gt;     &gt; this container, jdk, etc ......)<br>
&gt;     &gt; root@localhost:/tmp# lxc-ls -f<br>
&gt;     &gt; NAME     STATE    IPV4        IPV6  GROUPS  AUTOSTART<br>
&gt;     &gt; -----------------------------------------------------<br>
&gt;     &gt; worker   RUNNING  10.0.3.109  -     -       NO<br>
&gt;     &gt; worker2  RUNNING  10.0.3.48   -     -       NO<br>
&gt;     &gt;<br>
&gt;     &gt; lxc-checkpoint -s -D /tmp/direworker -n worker<br>
&gt;     &gt; lxc-checkpoint -r -D /tmp/direworker -n worker<br>
&gt;     &gt;<br>
&gt;     &gt; lxc-ls -f<br>
&gt;     &gt; ^CTraceback (most recent call last):<br>
&gt;     &gt;   File &quot;/usr/bin/lxc-ls&quot;, line 432, in &lt;module&gt;<br>
&gt;     &gt;     containers = get_containers(root=True)<br>
&gt;     &gt;   File &quot;/usr/bin/lxc-ls&quot;, line 261, in get_containers<br>
&gt;     &gt;     if container.controllable:<br>
&gt;     &gt; KeyboardInterrupt<br>
&gt;<br>
&gt;     This means that the restore failed and lxc-checkpoint didn&#39;t<br>
&gt;     understand that it failed, and is still waiting. I think we recently<br>
&gt;     fixed a bug (there is a patch about SIGCHLD) that will cause this not<br>
&gt;     to hang here.<br>
&gt;<br>
&gt;     &gt; dump.log:<br>
&gt;     &gt; Warn  (fsnotify.c:188): fsnotify:       Handle 800003:3c605 cannot be opened<br>
&gt;     &gt; Warn  (fsnotify.c:188): fsnotify:       Handle 800003:4a4ba cannot be opened<br>
&gt;     &gt; Warn  (arch/x86/crtools.c:132): Will restore 4271 with interrupted system<br>
&gt;     &gt; call<br>
&gt;     &gt; Warn  (arch/x86/crtools.c:132): Will restore 4454 with interrupted system<br>
&gt;     &gt; call<br>
&gt;     &gt; Warn  (arch/x86/crtools.c:132): Will restore 4455 with interrupted system<br>
&gt;     &gt; call<br>
&gt;     &gt; Warn  (arch/x86/crtools.c:132): Will restore 4460 with interrupted system<br>
&gt;     &gt; call<br>
&gt;     &gt; Warn  (arch/x86/crtools.c:132): Will restore 4461 with interrupted system<br>
&gt;     &gt; call<br>
&gt;     &gt; Warn  (arch/x86/crtools.c:132): Will restore 4463 with interrupted system<br>
&gt;     &gt; call<br>
&gt;     &gt;<br>
&gt;     &gt; restore.log:<br>
&gt;     &gt; Warn  (cr-restore.c:1029): Set CLONE_PARENT | CLONE_NEWPID but it might<br>
&gt;     &gt; cause restore problem,because not all kernels support such clone flags<br>
&gt;     &gt; combinations!<br>
&gt;     &gt; RTNETLINK answers: File exists<br>
&gt;     &gt; RTNETLINK answers: File exists<br>
&gt;     &gt; RTNETLINK answers: File exists<br>
&gt;     &gt;<br>
&gt;     &gt;<br>
&gt;     &gt; Can you please explain to me what is the problem?  is it because of some<br>
&gt;     &gt; tools installed in the container?<br>
&gt;<br>
&gt;     Do you have a way to reproduce this? I&#39;m not sure what it means<br>
&gt;     exactly, perhaps Pavel can elaborate. However, it would be nice to<br>
&gt;     have a small testcase so I can try and fix it.<br>
&gt;<br>
&gt;     Thanks,<br>
&gt;<br>
&gt;     Tycho<br>
&gt;<br>
&gt;     &gt;<br>
&gt;     &gt; Thanks a lot for help.<br>
&gt;     &gt; Best regards.<br>
&gt;<br>
&gt;     &gt; _______________________________________________<br>
&gt;     &gt; CRIU mailing list<br>
</div></div>&gt;     &gt; <a href="mailto:CRIU@openvz.org">CRIU@openvz.org</a> &lt;mailto:<a href="mailto:CRIU@openvz.org">CRIU@openvz.org</a>&gt;<br>
&gt;     &gt; <a href="https://lists.openvz.org/mailman/listinfo/criu" rel="noreferrer" target="_blank">https://lists.openvz.org/mailman/listinfo/criu</a><br>
&gt;<br>
&gt;<br>
<br>
</blockquote></div><br></div>