Was bedeutet eigentlich Dekolonialisierung?

Durch den Kolonialismus sind Macht, Rechte und Ressourcen auf der Welt bis heute ungleich verteilt. Dekolonialisierung, auch Dekolonisation, bezeichnet die Idee, diese Strukturen nicht nur anzuerkennen, sondern alle Lebensbereiche, die davon betroffen sind – ob nun Gesellschaft, Wirtschaft, Religion, Politik, Kunst oder Wissenschaft – davon zu befreien.

Lass uns gemeinsam den gesundheitlichen Auswir­kungen von Ungleichheit auf den Grund gehen.

Abonniere uns über Steady