Desde que el covid-19 dejó de ser noticia diaria y se normalizó la situación parece que se ha ido reduciendo la idea de que la vacunación es fundamental como una práctica normal que deberíamos tener asumida en nuestras vidas en una época como la presente donde proliferan las enfermedades por contagios de virus. Y es que parece que solo había que vacunarse en aquellos dramáticos momentos para evitar las consecuencias de un virus letal que quitó muchas vidas a las que no les había llegado su hora, pero que ese maldito virus ejecutó literalmente.