anônimo
anônimo
15/08/2019 21h20

Como assim que tem a cultura dos EUA?

praticamente 97% dos filmes de Hollywood retratam

a cultura americana nos seus filmes.

a não ser que você se refira a filmes focados na cultura dos EUA