Coronavirus

Coronavirus

El presidente de Estados Unidos Joe Biden asegura que se terminó la pandemia

El presidente Joe Biden declaró el fin de la pandemia a pesar de que expertos de salud aún dicen que no hay que bajar la guardia contra el covid-19. Gustavo Valdés nos cuenta.