Qui dirige vraiment les États-Unis, la politique ou le cinéma, Hollywood ou Washington ? La question est beaucoup plus sérieuse qu'il n'y paraît et... > Lire la suite
Qui dirige vraiment les États-Unis, la politique ou le cinéma, Hollywood ou Washington ? La question est beaucoup plus sérieuse qu'il n'y paraît et la réponse qu'y apportent les auteurs de cette enquête originale et riche ne manquera pas de faire réfléchir. Le cinéma américain s'est toujours investi dans la vie politique, que ce soit pour participer aux grandes flambées patriotiques ou pour dénoncer les travers des administrations. Mais ce qui prend corps désormais, bien au-delà des cas Reagan ou Schwartzenneger, c'est une soumission croissante de la politique aux règles édictées par Hollywood. On ne mesure pas encore assez l'impact de ce renversement, qui marque l'avènement d'un avatar assez inquiétant de la "démocratie".
Docteur en science politique, chercheur spécialisé dans les questions nucléaires, la politique étrangère des États-Unis et les relations transatlantiques, responsable du de l'antenne IRIS.