La Segunda Guerra Mundial trajo grandes cambios en la vida económica, social y política entre 1939 y 1945. Alemania invadió y conquistó la mayor parte de Europa occidental para 1940, pero fue detenida por la Unión Soviética y los aliados. Finalmente, los aliados derrotaron a Alemania desde el este y el oeste en 1945, poniendo fin a la guerra.