06/10/2024 19h55

Todo mundo acha que se os nazistas tivessem vencido a Segunda Guerra Mundial eles teve

um dominado mundo juntamente com os outros países do eixo, mas não... Hitler nunca quis dominar o mundo, o que ele queria era uma zona de "espaço vital" que compreendia a União soviética, depois de Hitler ter conseguido a rendição da Inglaterra e a derrota da União soviética e os americanos não tivessem interferido (o que eu acho difícil, pelos japoneses terem atacado Pearl Harbor e por causa do pacto tripartite os EUA estariam automaticamente declarando guerra á Alemanha) Hitler apenas teria imposto algum tipo de tratado que fosse uma revanche do tratado de Versalhes mas agora a Alemanha seria a bambam da parada... E em tese Alemanha só seria mais um estado militarista hiperinflado que provavelmente não conseguiria se manter ao longo dos anos e provavelmente iria se dissolver.