A Europa após a 1ª Guerra Mundial. O fim da Primeira Guerra Mundial trouxe muitos prejuízos para os países derrotados, em especial a Alemanha. O Tratado de Versalhes colocou fim a Primeira guerra Mundial, este foi assinado pelos “Três Grandes” países vencedores da referida guerra, EUA por Woodrow Wilson, a Inglaterra pelo primeiro ministro David Lloyd George e a França por Georges Clemanceau, impondo a derrota alemã. A decada de 1930 trouxe a tona o espirito do militarismo, no qual predominavam a disciplina e o autoritarismo. Assim muitos partidos politicos surgem no mundocom este discurso de extrema direita, dentre eles, na Alemanha, o partido nazista de Adolf Hitler surge como o partido “salvador da pátria” alemã, haja vista que o país já estava arrasado após derrota na Primeira Guerra, com a pobreza e a inflação bastante alta, e principalmente, com o orgulho alemão ferido. Deste modo, o partido Nazista prega o nacionalismo e a volta por cima da Alemanha para tornar a ser uma grande...
Comentários
Postar um comentário