≡ Menu

Imperialismus

Definition Imperialismus

Von Imperialismus wird allgemein gesprochen, wenn ein Staat sich (stark) ausdehnen und seinen Machtbereich erweitern will.

Die Wende vom 19. zum 20. Jahrhundert war ein Höhepunkt des Imperialismus. Zahlreiche Großmächte Westeuropas erweiterten ihren Herrschaftsbereich. Was damals als Kolonialpolitik umschrieben wurde, bedeutete im eigentlich Sinne das Streben nach einem Weltreich.

Vorbilder waren dabei zum Beispiel das Großreich Alexanders des Großen oder das Imperium Romanum der Antike. Ideologisch wurde der Imperialismus unter anderem mit einer kulturmissionarischen Aufgabe begründet. Sozialdarwinismus, Nationalismus und Rassismus dienten ebenfalls als Rechtfertigung.

Werbung

Das könnte dich auch interessieren: