Les etats-unis ont-ils decolonise l'afrique noire francophone ?

0 Aucun avis client

Neuf

 
 
Produit indisponible pour le moment
Ebook

 
Téléchargement immédiat
 
-19%

Fiche détaillée de "Les etats-unis ont-ils decolonise l'afrique noire francophone ?"

Résumé
Les Etats-Unis ont-ils assassiné les Empires coloniaux d'Afrique ? Aujourd'hui, les relations franco-américaines en Afrique noire sont au centre de toutes les polémiques. Fin janvier 2003, les manifestants soutenant le pouvoir de Laurent Gbagbo en Côte d'ivoire scandent des slogans pro-américains. Les Etats-Unis sont-ils vraiment ce recours qui permettrait d'échapper au face à face avec l'ancienne puissance coloniale ? Cette enquête propose une approche novatrice des relations internationales qui englobe le passé dans sa diversité: une histoire métisse qui fait le lien entre histoire africaine et histoire occidentale.
 
 
 
x