≡ Menu

Feminismus

Feminismus Definition

Der Feminismus bezeichnet eine Bewegung, die grundsätzlich die Gleichberechtigung von Frauen in allen Belangen fordert.

Der Feminismus entstand in einer von Männern dominierten Gesellschaft, in der der weibliche Teil der Bevölkerung entweder juristisch oder zumeist tatsächlich weniger Rechte als Männer nutzen konnte.

Zentrale Ziele des Feminismus sind die Gleichstellung von Frauen und Männern, der Schutz vor sexueller Gewalt, die Vermeidung von Sexismus im Handeln und in der Sprache sowie die sexuelle Selbstbestimmung. Letztere umfasst den Schutz vor Vergewaltigung ebenso wie das Recht der Frauen auf selbstbestimmte sexuelle Verwirklichung.

In seinen Ursprüngen setzte der Feminismus heute als selbstverständlich geltende Rechte wie das Frauenstudium und die weibliche Berufstätigkeit ohne Erlaubnis des Vaters oder Ehemannes durch.

Werbung

Das könnte dich auch interessieren: