Teafilo7
Após conquistar sua independência no final do século XVIII, os Estados Unidos da América consolidaram-se como Estado-nação e passaram por grandes transformações durante o século XIX. Entre as mudanças ocorridas, destacou-se a grande expansão territorial que o país sofreu, seja pela compra de territórios, seja pela guerra.
Lista de comentários