As vacinas são uma forma de ensinar seu corpo a combater vírus ou bactérias que causam infecções. Graças às vacinas, muito menos pessoas ficam gravemente doentes ou morrem de infecções do que no passado. Compartilhe essas informações com outras mulheres que você conheça. Se você trabalha em uma organização que atende mulheres, compartilhe e replique as informações.

 

Array