Buscar
27 de Diciembre del 2024
Salud

El presidente Biden dice que la pandemia terminó

El presidente Biden dice que la pandemia terminó

El presidente de Estados Unidos, Joe Biden, dijo que la pandemia de Covid-19 terminó, tras ser cuestionado en una entrevista en el programa "60 Minutes" de CBS.

Aunque reconoció que la Covid-19 sigue siendo un problema en EE.UU., pero que como tal la pandemia ha terminado.

"La pandemia ha terminado. Todavía tenemos un problema con el covid. Todavía trabajamos mucho en eso. Pero la pandemia ha terminado", dijo el presidente.

Es importante mencionar que la única instancia que puede declarar el fin de la pandemia es la Organización Mundial de la Salud (OMS), que fue la que en primer lugar declaró su inicio el 11 de marzo de 2020.






Noticias Similares



Noticias Destacadas



Más de Meganoticias