Origini e sviluppo del Far West
Il termine “Far West” si riferisce al territorio occidentale degli Stati Uniti, conquistato dai cittadini bianchi durante il XIX secolo. Questo processo di espansione ha portato alla creazione di un’immagine romantica e selvaggia del West, influenzando enormemente il genere western. Tale genere ha trovato espressione in vari ambiti artistici, tra cui teatro, cinema e letteratura, rappresentando un paesaggio popolato da cowboy e pistoleri.
Indice Articolo
La realtà del Far West
Contrariamente alla visione popolare, il Far West non era un territorio completamente privo di leggi. Sebbene fosse lontano dai centri di potere e il governo di Washington avesse difficoltà a controllarlo, il territorio comprendeva aree ben organizzate e definite, oggi corrispondenti a stati come Arizona, Utah e California. L’immagine che si ha del Far West è quindi una costruzione artistica più che una verità storica.
Chiusura del Far West
L’era del Far West può essere considerata conclusa all’inizio del XX secolo, quando la conquista e l’integrazione del territorio negli Stati Uniti furono completate. Questo evento segnò il passaggio da un’epoca di esplorazione e conquista a una di stabilità e amministrazione federale.
il Far West così come lo immaginiamo non è mai esistito
Quando si parla del West si intende il territorio occidentale degli Stati Uniti che nel corso dell’800 fu progressivamente conquistato dai cittadini bianchi stanziati sulla costa occidentale. Le caratteristiche “selvagge” del West hanno suscitato la fantasia del pubblico e sin dalla fine dell’800 è nato il genere western, che si è sviluppato attraverso il teatro, il cinema, la letteratura e altre forme d’arte, descrivendo il territorio occidentale americano come un luogo nel quale imperversavano pistoleri e cowboy. La realtà era diversa e, sebbene il Far West (“lontano Ovest”), fosse effettivamente distante dai centri del potere politico e il governo di Washington non riuscisse a controllarlo completamente, il territorio, composto tra gli altri dagli attuali Arizona, Utah, Colorado, Nevada e California, non era il luogo senza legge raccontato dal cinema e dalla letteratura. Il West, per come lo intendiamo, “finì” all’incirca all’inizio del ‘900, nel senso che la conquista fu portata a termine e il territorio fu pienamente integrato negli Stati Uniti.