5 verdades que me ayudaron a mejorar la relación con mi cuerpo
Tener una buena relación con tu cuerpo es una idea que pocas veces está promovido dentro de nuestra sociedad. Al contrario, nuestra cultura nos propone que el trabajo es más importante que el autocuidado, que hay que sacrificar para poder lograr éxitos, incluso hasta recientemente, el vínculo con el cuerpo...