top of page

Colonialismo

Término que viene de su raíz colonia y ésta del latín coloniam. Es la doctrina que tiende a legitimar la dominación política y económica de un territorio o de una nación por el gobierno de un estado extranjero. Suele llamarse así al proceso iniciado en el siglo XV con la conquista, asentamiento y explotación, por parte de Europa, de territorios en América, Oriente y África.

 

 

http://www.profesorenlinea.cl/universalhistoria/Colonialismo.htm

bottom of page