Unter Herrenmenschen — Der deutsche Kolonialismus in Namibia
32019HD
Die Deutschen kolonisierten das Land Namibia im südlichen Afrika während eines kurzen Zeitraums von 1840 bis zum Ende des Ersten Weltkriegs. Die Geschichte des so genannten Deutsch-Südwestafrikas (1884-1915) ist abscheulich; ein versteckter und verschwiegener Bericht über Plünderung und...
Umrahmt von Szenen der formellen Unabhängigkeit Namibias als neu gegründetes afrikanisches Land im Jahr 1990, führt Desiree Kahikopos historische Romanze zurück ins Jahr 1963, kurz nach dem Aufstand von 1959 in Old Location – einem für schwarze Einwohner von Windhoek, der Hauptstadt...