Gesellschaft
Dominante Frauen
Die Rolle der Frau hat sich in den letzten Jahrhunderten oder Jahrzehnten stark verändert.Erst hat sich die Frau zunehmend emanzipiert, dann hat sie jedoch zunehmend das Ruder übernommen. Immer mehr Frauen bekommen Posten in der Führungsetage,ebenso bekommen immer mehr Frauen die Oberhand in der Beziehung.
Doch warum ist dies so?
Liegt dies an der Frau oder doch an den Männern der heutigen Gesellschaft?
Ein Blick zurück ins Mittelalter verrät, dass damals die Rollen noch klar definiert waren. Die Männer waren die Jäger und die Frau kümmerte sich um die Kinder. Dabei war der Mann das "Alphatier" - er kümmerte sich um die Versorgung der Familie und diente zudem dem Schutz der Familie.
Einige Jahrhunderte später gelang es den Frauen immer mehr Rechte zu Erlangen, erst das Frauenwahlrecht und dann immer weiter die Macht...
Heute ist es selbstverständlicher den je geworden, dass Frauen über dem Mann stehen. Frauen treffen die Entscheidungen, Frauen erhalten Spitzenpositionen, Frauen...
Es geschieht ein Wandel in der Gesellschaft, der allzuvielen unbemerkt bleibt, jedoch nicht unaufhaltsam ist.