Más de Coronavirus (10 videos)

El presidente de Estados Unidos Joe Biden asegura que se terminó la pandemia

El presidente de Estados Unidos Joe Biden asegura que se terminó la pandemia

El presidente Joe Biden declaró el fin de la pandemia a pesar de que expertos de salud aún dicen que no hay que bajar la guardia contra el covid-19. Gustavo Valdés nos cuenta.