- Voting
- 8K
- 12
- 0
Machen sich Frauen wieder abhängiger?
Immer häufiger muss ich feststellen ob nun im persönlichen Umfeld oder in den Medien, dass Frauen nicht mehr so karriereorientiert sind und lieber eine "typisch weibliche" Rolle einnehmen. Natrülich möchte ich nicht abstreiten, dass ein erfülltes Familienleben ebenso schön und erstrebenswert wie eine (erfolgreiche) Karriere ist aber ist es denn Sinn der Sache, dass nach jahrzehntelangem, gar jahrhundertelangem Kampf um die Emanzipation nun nach ihrer Erreichunug (zumindest in vielen Lebensbereichen der westlichen Welt) die Stagnation wenn nicht sogar den Regress zu bevorzugen?!
Wie sind eure Erfahrungen? Sehe nur ich diese Entwicklung oder würdet ihr mir zustimmen?