<div dir="ltr"><div>/sys/fs/cgroup/memory was checked and not show this groups - <br></div><div><br></div><div> find /sys/fs/cgroup/memory -type d | wc -l<br>2</div><div><br></div><div>grep -E &quot;memory|num&quot; /proc/cgroups <br>#subsys_name        hierarchy        num_cgroups        enabled<br>memory        2        63744        1</div><div><br></div><div>And more strange - uptime was only about 3 days when the problem reproduced.<br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, 12 Feb 2021 at 04:06, Kir Kolyshkin &lt;<a href="mailto:kir@openvz.org">kir@openvz.org</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">On Thu, Feb 11, 2021 at 12:59 AM Сергей Мамонов &lt;<a href="mailto:mrqwer88@gmail.com" target="_blank">mrqwer88@gmail.com</a>&gt; wrote:<br>
&gt;<br>
&gt; And after migrate all containers to another node it still shows 63745 cgroups -<br>
&gt;<br>
&gt; cat /proc/cgroups<br>
&gt; #subsys_name hierarchy num_cgroups enabled<br>
&gt; cpuset 7 2 1<br>
&gt; cpu 10 2 1<br>
&gt; cpuacct 10 2 1<br>
&gt; memory 2 63745 1<br>
<br>
Looks like a leakage (or a bug in memory accounting which prevents<br>
cgroup from being released).<br>
You can check the number of memory cgroups with something like<br>
<br>
find /sys/fs/cgroup/memory -type d | wc -l<br>
<br>
If you see a large number, go explore those cgroups (check<br>
cgroup.procs, memory.usage_in_bytes).<br>
<br>
&gt; devices 11 2 1<br>
&gt; freezer 17 2 1<br>
&gt; net_cls 12 2 1<br>
&gt; blkio 1 4 1<br>
&gt; perf_event 13 2 1<br>
&gt; hugetlb 14 2 1<br>
&gt; pids 3 68 1<br>
&gt; ve 6 1 1<br>
&gt; beancounter 4 3 1<br>
&gt; net_prio 12 2 1<br>
&gt;<br>
&gt; On Wed, 10 Feb 2021 at 18:47, Сергей Мамонов &lt;<a href="mailto:mrqwer88@gmail.com" target="_blank">mrqwer88@gmail.com</a>&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt; And it is definitely it -<br>
&gt;&gt; grep -E &quot;memory|num_cgroups&quot; /proc/cgroups<br>
&gt;&gt; #subsys_name hierarchy num_cgroups enabled<br>
&gt;&gt; memory 2 65534 1<br>
&gt;&gt;<br>
&gt;&gt; After migration some of containers to another node num_cgroups goes down to 65365 and it allowed to start stopped container without `<br>
&gt;&gt; Can&#39;t create directory /sys/fs/cgroup/memory/machine.slice/1000133882: Cannot allocate memory` error.<br>
&gt;&gt;<br>
&gt;&gt; But I don&#39;t understand why num_cgroups for memory so big, yet.<br>
&gt;&gt;<br>
&gt;&gt; Like ~460 per container instead of  60 and less per container on other nodes (with the same kernel version too).<br>
&gt;&gt;<br>
&gt;&gt; On Wed, 10 Feb 2021 at 17:48, Сергей Мамонов &lt;<a href="mailto:mrqwer88@gmail.com" target="_blank">mrqwer88@gmail.com</a>&gt; wrote:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Hello!<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Looks like we reproduced this problem too.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; kernel - 3.10.0-1127.18.2.vz7.163.46<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Same error -<br>
&gt;&gt;&gt; Can&#39;t create directory /sys/fs/cgroup/memory/machine.slice/1000133882: Cannot allocate memory<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Same ok output for<br>
&gt;&gt;&gt; /sys/fs/cgroup/memory/*limit_in_bytes<br>
&gt;&gt;&gt; /sys/fs/cgroup/memory/machine.slice/*limit_in_bytes<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Have a lot of free memory on node (per numa too).<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Only that looks really strange -<br>
&gt;&gt;&gt; grep -E &quot;memory|num_cgroups&quot; /proc/cgroups<br>
&gt;&gt;&gt; #subsys_name hierarchy num_cgroups enabled<br>
&gt;&gt;&gt; memory 2 65534 1<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; huge nub_cgroups only on this node<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; cat /proc/cgroups<br>
&gt;&gt;&gt; #subsys_name hierarchy num_cgroups enabled<br>
&gt;&gt;&gt; cpuset 7 144 1<br>
&gt;&gt;&gt; cpu 10 263 1<br>
&gt;&gt;&gt; cpuacct 10 263 1<br>
&gt;&gt;&gt; memory 2 65534 1<br>
&gt;&gt;&gt; devices 11 1787 1<br>
&gt;&gt;&gt; freezer 17 144 1<br>
&gt;&gt;&gt; net_cls 12 144 1<br>
&gt;&gt;&gt; blkio 1 257 1<br>
&gt;&gt;&gt; perf_event 13 144 1<br>
&gt;&gt;&gt; hugetlb 14 144 1<br>
&gt;&gt;&gt; pids 3 2955 1<br>
&gt;&gt;&gt; ve 6 143 1<br>
&gt;&gt;&gt; beancounter 4 143 1<br>
&gt;&gt;&gt; net_prio 12 144 1<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; On Thu, 28 Jan 2021 at 14:22, Konstantin Khorenko &lt;<a href="mailto:khorenko@virtuozzo.com" target="_blank">khorenko@virtuozzo.com</a>&gt; wrote:<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; May be you hit memory shortage in a particular NUMA node only, for example.<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; # numactl --hardware<br>
&gt;&gt;&gt;&gt; # numastat -m<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; Or go hard way - trace kernel where exactly do we get -ENOMEM:<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; trace the kernel function cgroup_mkdir() using /sys/kernel/debug/tracing/<br>
&gt;&gt;&gt;&gt; with function_graph tracer.<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; <a href="https://lwn.net/Articles/370423/" rel="noreferrer" target="_blank">https://lwn.net/Articles/370423/</a><br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; --<br>
&gt;&gt;&gt;&gt; Best regards,<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; Konstantin Khorenko,<br>
&gt;&gt;&gt;&gt; Virtuozzo Linux Kernel Team<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; On 01/28/2021 12:43 PM, Joe Dougherty wrote:<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; I checked that, doesn&#39;t appear to be the case.<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; # pwd<br>
&gt;&gt;&gt;&gt; /sys/fs/cgroup/memory<br>
&gt;&gt;&gt;&gt; # cat *limit_in_bytes<br>
&gt;&gt;&gt;&gt; 9223372036854771712<br>
&gt;&gt;&gt;&gt; 9223372036854767616<br>
&gt;&gt;&gt;&gt; 2251799813685247<br>
&gt;&gt;&gt;&gt; 2251799813685247<br>
&gt;&gt;&gt;&gt; 9223372036854771712<br>
&gt;&gt;&gt;&gt; 9223372036854771712<br>
&gt;&gt;&gt;&gt; 9223372036854771712<br>
&gt;&gt;&gt;&gt; # cat *failcnt<br>
&gt;&gt;&gt;&gt; 0<br>
&gt;&gt;&gt;&gt; 0<br>
&gt;&gt;&gt;&gt; 0<br>
&gt;&gt;&gt;&gt; 0<br>
&gt;&gt;&gt;&gt; 0<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; # pwd<br>
&gt;&gt;&gt;&gt; /sys/fs/cgroup/memory/machine.slice<br>
&gt;&gt;&gt;&gt; # cat *limit_in_bytes<br>
&gt;&gt;&gt;&gt; 9223372036854771712<br>
&gt;&gt;&gt;&gt; 9223372036854767616<br>
&gt;&gt;&gt;&gt; 9223372036854771712<br>
&gt;&gt;&gt;&gt; 9223372036854771712<br>
&gt;&gt;&gt;&gt; 9223372036854771712<br>
&gt;&gt;&gt;&gt; 9223372036854771712<br>
&gt;&gt;&gt;&gt; 9223372036854771712<br>
&gt;&gt;&gt;&gt; # cat *failcnt<br>
&gt;&gt;&gt;&gt; 0<br>
&gt;&gt;&gt;&gt; 0<br>
&gt;&gt;&gt;&gt; 0<br>
&gt;&gt;&gt;&gt; 0<br>
&gt;&gt;&gt;&gt; 0<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; On Thu, Jan 28, 2021 at 2:47 AM Konstantin Khorenko &lt;<a href="mailto:khorenko@virtuozzo.com" target="_blank">khorenko@virtuozzo.com</a>&gt; wrote:<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; Hi Joe,<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; i&#39;d suggest to check memory limits for root and &quot;machine.slice&quot; memory cgroups<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; /sys/fs/cgroup/memory/*limit_in_bytes<br>
&gt;&gt;&gt;&gt;&gt; /sys/fs/cgroup/memory/machine.slice/*limit_in_bytes<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; All of them should be unlimited.<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; If not - search who limit them.<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; --<br>
&gt;&gt;&gt;&gt;&gt; Best regards,<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; Konstantin Khorenko,<br>
&gt;&gt;&gt;&gt;&gt; Virtuozzo Linux Kernel Team<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; On 01/27/2021 10:28 PM, Joe Dougherty wrote:<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; I&#39;m running into an issue on only 1 of my OpenVZ 7 nodes where it&#39;s unable to create a directory on /sys/fs/cgroup/memory/machine.slice due to &quot;Cannot allocate memory&quot; whenever I try to start a new container or restart and existing one. I&#39;ve been trying to research this but I&#39;m unable to find any concrete info on what could cause this. It appears to be memory related because sometimes if I issue &quot;echo 1 /proc/sys/vm/drop_caches&quot; it allows me to start a container (this only works sometimes) but my RAM usage is extremely low with no swapping (swappiness even set to 0 for testing). Thank you in advance for your help.<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; Example:<br>
&gt;&gt;&gt;&gt;&gt; # vzctl start 9499<br>
&gt;&gt;&gt;&gt;&gt; Starting Container ...<br>
&gt;&gt;&gt;&gt;&gt; Mount image: /vz/private/9499/root.hdd<br>
&gt;&gt;&gt;&gt;&gt; Container is mounted<br>
&gt;&gt;&gt;&gt;&gt; Can&#39;t create directory /sys/fs/cgroup/memory/machine.slice/9499: Cannot allocate memory<br>
&gt;&gt;&gt;&gt;&gt; Unmount image: /vz/private/9499/root.hdd (190)<br>
&gt;&gt;&gt;&gt;&gt; Container is unmounted<br>
&gt;&gt;&gt;&gt;&gt; Failed to start the Container<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; Node Info:<br>
&gt;&gt;&gt;&gt;&gt; Uptime:      10 days<br>
&gt;&gt;&gt;&gt;&gt; OS:          Virtuozzo 7.0.15<br>
&gt;&gt;&gt;&gt;&gt; Kernel:      3.10.0-1127.18.2.vz7.163.46 GNU/Linux<br>
&gt;&gt;&gt;&gt;&gt; System Load: 3.1<br>
&gt;&gt;&gt;&gt;&gt; /vz Usage:   56% of 37T<br>
&gt;&gt;&gt;&gt;&gt; Swap Usage:  0%<br>
&gt;&gt;&gt;&gt;&gt; RAM Free:    84% of 94.2GB<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; # free -m<br>
&gt;&gt;&gt;&gt;&gt;                     total        used        free            shared   buff/cache   available<br>
&gt;&gt;&gt;&gt;&gt; Mem:          96502       14259     49940         413         32303           80990<br>
&gt;&gt;&gt;&gt;&gt; Swap:         32767       93           32674<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; _______________________________________________<br>
&gt;&gt;&gt;&gt;&gt; Users mailing list<br>
&gt;&gt;&gt;&gt;&gt; <a href="mailto:Users@openvz.org" target="_blank">Users@openvz.org</a><br>
&gt;&gt;&gt;&gt;&gt; <a href="https://lists.openvz.org/mailman/listinfo/users" rel="noreferrer" target="_blank">https://lists.openvz.org/mailman/listinfo/users</a><br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; _______________________________________________<br>
&gt;&gt;&gt;&gt;&gt; Users mailing list<br>
&gt;&gt;&gt;&gt;&gt; <a href="mailto:Users@openvz.org" target="_blank">Users@openvz.org</a><br>
&gt;&gt;&gt;&gt;&gt; <a href="https://lists.openvz.org/mailman/listinfo/users" rel="noreferrer" target="_blank">https://lists.openvz.org/mailman/listinfo/users</a><br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; --<br>
&gt;&gt;&gt;&gt; -Joe Dougherty<br>
&gt;&gt;&gt;&gt; Chief Operating Officer<br>
&gt;&gt;&gt;&gt; Secure Dragon LLC<br>
&gt;&gt;&gt;&gt; <a href="http://www.SecureDragon.net" rel="noreferrer" target="_blank">www.SecureDragon.net</a><br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; _______________________________________________<br>
&gt;&gt;&gt;&gt; Users mailing list<br>
&gt;&gt;&gt;&gt; <a href="mailto:Users@openvz.org" target="_blank">Users@openvz.org</a><br>
&gt;&gt;&gt;&gt; <a href="https://lists.openvz.org/mailman/listinfo/users" rel="noreferrer" target="_blank">https://lists.openvz.org/mailman/listinfo/users</a><br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; _______________________________________________<br>
&gt;&gt;&gt;&gt; Users mailing list<br>
&gt;&gt;&gt;&gt; <a href="mailto:Users@openvz.org" target="_blank">Users@openvz.org</a><br>
&gt;&gt;&gt;&gt; <a href="https://lists.openvz.org/mailman/listinfo/users" rel="noreferrer" target="_blank">https://lists.openvz.org/mailman/listinfo/users</a><br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; --<br>
&gt;&gt;&gt; Best Regards,<br>
&gt;&gt;&gt; Sergei Mamonov<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; --<br>
&gt;&gt; Best Regards,<br>
&gt;&gt; Sergei Mamonov<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; --<br>
&gt; Best Regards,<br>
&gt; Sergei Mamonov<br>
&gt; _______________________________________________<br>
&gt; Users mailing list<br>
&gt; <a href="mailto:Users@openvz.org" target="_blank">Users@openvz.org</a><br>
&gt; <a href="https://lists.openvz.org/mailman/listinfo/users" rel="noreferrer" target="_blank">https://lists.openvz.org/mailman/listinfo/users</a><br>
<br>
_______________________________________________<br>
Users mailing list<br>
<a href="mailto:Users@openvz.org" target="_blank">Users@openvz.org</a><br>
<a href="https://lists.openvz.org/mailman/listinfo/users" rel="noreferrer" target="_blank">https://lists.openvz.org/mailman/listinfo/users</a><br>
</blockquote></div><br clear="all"><br>-- <br><div dir="ltr" class="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div><span style="font-size:12.8px">Best Regards,</span><br></div><div>Sergei Mamonov</div></div></div></div></div>