Nachdem ich gerade wieder mit einer Freundin eine Diskussion darüber hatte, möchte ich das Thema gerne her ins Froum stellen und bin gespannt auf eure Meinungen!
Was bedeutet für euch Emanzipation? Ist das Wort für euch negativ oder positive beladen und was beinhaltet es für euch persönlich? Haltet ihr euch selbst für emanzipiert oder findet ihr das gar nicht erstrebenswert? Auch die Meinung der Männer zu diesem Thema fände ich interessant!
Auslösend war ein Telefongespräch mit einer Freundin, die sich, meiner Meinung nach, sehr stark von ihrem Freund abhängig macht. Will sie irgendwo hin (so wie heute mit mir) fragt sie zuerst ihn, ob das für ihn auch in Ordnung ist (???). Natürlich führt auch nur sie den Haushalt, macht Essen, die Wäsche usw. (Beide sind voll berufstätig!). Sie meint, diese Arbeiten seien doch ein Liebesbeweis (da geht mir persönlich immer die Hutschnur hoch- heißt das dann, dass er sie nicht liebt, denn er macht ja nichts im Haushalt?). Ich bin immer wieder schockiert, wieviele Frauen in meinem Umfeld meinen, dass die weibliche Genetik auch ein "Waschen-Putzen-Aufräumen"-Gen beinhaltet und ich werde regelmäßig schief angesehen, wenn ich sage, dass ich nicht die Wäsche für meinen Freund wasche, sondern dass jeder selbst wäscht und dass wir uns den Haushaltt 50-50 teilen. Versteht mich nicht falsch, ich habe nichts gegen das Hausfrauendasein- dies würde ja dann bedeuten, dass nur der Mann "arbeitet" und die Frau "nur" den Haushalt macht. Kribbelig wird es aber, wenn beide arbeiten und die Mädels trotzdem meinen, dass man Weiblichkeit nur über einen tollen Haushalt repräsentieren kann und die allen ernstes wegen jedem Mist ihren Freund fragen als ob sie selbst unmündig wären ("XY möchte nicht, dass ich schon wieder Geld ausgeben" HALLOOO? Du hast für das Geld gearbeitet! Da wirst Du doch noch selbst entscheiden können!!!" )
Lange Rede, kurzer Sinn:
Wie seht ihr das?
Bin gespannt.
DickesM