Alimentos que deshidratan la piel
La apariencia de la piel es muy importante, ya que muestra el estado de salud interior. Beber agua y tener una dieta saludable son indispensables para mantener una piel sana, pero ¿sabías que existen alimentos que la deshidratan? Aquí te mostramos algunos