<html><body><div id="zimbraEditorContainer" style="font-family: arial, helvetica, sans-serif; font-size: 12pt; color: #000000" class="5"><div>no factory , just repos virtuozzolinux-base and openvz-os <br data-mce-bogus="1"></div><div><br></div><div># yum repolist&nbsp; |grep virt<br>virtuozzolinux-base&nbsp;&nbsp;&nbsp; VirtuozzoLinux Base&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 15 415+189<br>virtuozzolinux-updates VirtuozzoLinux Updates&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0<br><br data-mce-bogus="1"></div><div>Jehan . <br data-mce-bogus="1"></div><div><br></div><hr id="zwchr" data-marker="__DIVIDER__"><div data-marker="__HEADERS__"><b>De: </b>"jjs - mainphrame" &lt;jjs@mainphrame.com&gt;<br><b>À: </b>"OpenVZ users" &lt;users@openvz.org&gt;<br><b>Cc: </b>"Kevin Drysdale" &lt;kevin.drysdale@iomart.com&gt;<br><b>Envoyé: </b>Jeudi 2 Juillet 2020 18:22:33<br><b>Objet: </b>Re: [Users] Issues after updating to 7.0.14 (136)<br></div><div><br></div><div data-marker="__QUOTED_TEXT__"><div dir="ltr">Jehan, are you running factory?<br><br>My ovz hosts are up to date, and I see:<br><br>[root@annie ~]# cat /etc/virtuozzo-release <br>OpenVZ release 7.0.15 (222)<br><br>Jake<br><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, Jul 2, 2020 at 9:08 AM Jehan Procaccia IMT &lt;<a href="mailto:jehan.procaccia@imtbs-tsp.eu" target="_blank">jehan.procaccia@imtbs-tsp.eu</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
  
    
  
  <div>
    <div>"updating to 7.0.14 (136)" !? <br>
    </div>
    <div><br>
    </div>
    <div>I did an update yesterday , I am far
      behind that version <br>
    </div>
    <div><br>
    </div>
    <div><i># cat /etc/vzlinux-release</i><i><br>
      </i></div>
    <div><i>Virtuozzo Linux release 7.8.0 (609)</i></div>
    <div><i><br>
      </i></div>
    <div><i># uname -a </i><i><br>
      </i><i>Linux localhost 3.10.0-1127.8.2.vz7.151.14 #1 SMP Tue Jun 9
        12:58:54 MSK 2020 x86_64 x86_64 x86_64 GNU/Linux</i><i><br>
      </i><br>
    </div>
    <div>why don't you try to update to latest
      version ? <br>
    </div>
    <div><br>
    </div>
    <div><br>
    </div>
    <div>Le 29/06/2020 à 12:30, Kevin Drysdale a
      écrit&nbsp;:<br>
    </div>
    <blockquote>Hello,
      <br>
      <br>
      After updating one of our OpenVZ VPS hosting nodes at the end of
      last week, we've started to have issues with corruption apparently
      occurring inside containers.&nbsp; Issues of this nature have never
      affected the node previously, and there do not appear to be any
      hardware issues that could explain this.
      <br>
      <br>
      Specifically, a few hours after updating, we began to see
      containers experiencing errors such as this in the logs:
      <br>
      <br>
      [90471.678994] EXT4-fs (ploop35454p1): error count since last
      fsck: 25
      <br>
      [90471.679022] EXT4-fs (ploop35454p1): initial error at time
      1593205255: ext4_ext_find_extent:904: inode 136399
      <br>
      [90471.679030] EXT4-fs (ploop35454p1): last error at time
      1593232922: ext4_ext_find_extent:904: inode 136399
      <br>
      [95189.954569] EXT4-fs (ploop42983p1): error count since last
      fsck: 67
      <br>
      [95189.954582] EXT4-fs (ploop42983p1): initial error at time
      1593210174: htree_dirblock_to_tree:918: inode 926441: block
      3683060
      <br>
      [95189.954589] EXT4-fs (ploop42983p1): last error at time
      1593276902: ext4_iget:4435: inode 1849777
      <br>
      [95714.207432] EXT4-fs (ploop60706p1): error count since last
      fsck: 42
      <br>
      [95714.207447] EXT4-fs (ploop60706p1): initial error at time
      1593210489: ext4_ext_find_extent:904: inode 136272
      <br>
      [95714.207452] EXT4-fs (ploop60706p1): last error at time
      1593231063: ext4_ext_find_extent:904: inode 136272
      <br>
      <br>
      Shutting the containers down and manually mounting and e2fsck'ing
      their filesystems did clear these errors, but each of the
      containers (which were mostly used for running Plesk) had
      widespread issues with corrupt or missing files after the fsck's
      completed, necessitating their being restored from backup.
      <br>
      <br>
      Concurrently, we also began to see messages like this appearing in
      /var/log/vzctl.log, which again have never appeared at any point
      prior to this update being installed:
      <br>
      <br>
      /var/log/vzctl.log:2020-06-26T21:05:19+0100 : Error in fill_hole
      (check.c:240): Warning: ploop image
      '/vz/private/8288448/root.hdd/root.hds' is sparse
      <br>
      /var/log/vzctl.log:2020-06-26T21:09:41+0100 : Error in fill_hole
      (check.c:240): Warning: ploop image
      '/vz/private/8288450/root.hdd/root.hds' is sparse
      <br>
      /var/log/vzctl.log:2020-06-26T21:16:22+0100 : Error in fill_hole
      (check.c:240): Warning: ploop image
      '/vz/private/8288451/root.hdd/root.hds' is sparse
      <br>
      /var/log/vzctl.log:2020-06-26T21:19:57+0100 : Error in fill_hole
      (check.c:240): Warning: ploop image
      '/vz/private/8288452/root.hdd/root.hds' is sparse
      <br>
      <br>
      The basic procedure we follow when updating our nodes is as
      follows:
      <br>
      <br>
      1, Update the standby node we keep spare for this process
      <br>
      2. vzmigrate all containers from the live node being updated to
      the standby node
      <br>
      3. Update the live node
      <br>
      4. Reboot the live node
      <br>
      5. vzmigrate the containers from the standby node back to the live
      node they originally came from
      <br>
      <br>
      So the only tool which has been used to affect these containers is
      'vzmigrate' itself, so I'm at something of a loss as to how to
      explain the root.hdd images for these containers containing sparse
      gaps.&nbsp; This is something we have never done, as we have always
      been aware that OpenVZ does not support their use inside a
      container's hard drive image.&nbsp; And the fact that these images have
      suddenly become sparse at the same time they have started to
      exhibit filesystem corruption is somewhat concerning.
      <br>
      <br>
      We can restore all affected containers from backups, but I wanted
      to get in touch with the list to see if anyone else at any other
      site has experienced these or similar issues after applying the
      7.0.14 (136) update.
      <br>
      <br>
      Thank you,
      <br>
      Kevin Drysdale.
      <br>
      <br>
      <br>
      <br>
      <br>
      _______________________________________________
      <br>
      Users mailing list
      <br>
      <a href="mailto:Users@openvz.org" target="_blank">Users@openvz.org</a>
      <br>
      <a href="https://lists.openvz.org/mailman/listinfo/users" target="_blank">https://lists.openvz.org/mailman/listinfo/users</a>
      <br>
    </blockquote>
    <p><br>
    </p>
  </div>

_______________________________________________<br>
Users mailing list<br>
<a href="mailto:Users@openvz.org" target="_blank">Users@openvz.org</a><br>
<a href="https://lists.openvz.org/mailman/listinfo/users" rel="noreferrer" target="_blank">https://lists.openvz.org/mailman/listinfo/users</a><br>
</blockquote></div>
<br>_______________________________________________<br>Users mailing list<br>Users@openvz.org<br>https://lists.openvz.org/mailman/listinfo/users<br></div></div></body></html>