Deutscher Kolonialismus
Entkolonialisierung Deutschlands
Kolonialismus: Auch Deutschland hat zum Ende des 19. Jahrhunderts Besitzansprüche auf Gebiete Afrikas gelegt. Symbolbild

Kolonialismus. Vielerorts werden derzeit die rassistischen und kolonialen Geschichten von Gesellschaften hinterfragt.