
anônimo
15/08/2019 21h20
Como assim que tem a cultura dos EUA?
praticamente 97% dos filmes de Hollywood retratam
a cultura americana nos seus filmes.a não ser que você se refira a filmes focados na cultura dos EUA