Dieta vs wegetarianizm i weganizm [kompendium wiedzy]
Diety wegetariańskie to ogólnoświatowy trend. W związku z dbaniem o zdrowie, odchodzeniem od żywności przetworzonej, wracaniem do korzeni oraz ze względu na zmiany klimatu, coraz więcej osób decyduje się na wybieranie żywności roślinnej. Wszystkie diety wegetariańskie kojarzymy głównie z niejedzeniem mięsa, pochodzącego ze zwierząt kopytnych. Natomiast warto doprecyzować co oznacza dieta wegetariańska oraz jakie są […]