anônimo
anônimo
09/11/2018 22h11

Porque o Brasil não é uma nação nem nunca foi.

O Brasil é uma terra de

índios selvagens e sempre será - mesmo que alguns sejam índios de olhos azuis, que dirijam empresas e possuam carros de luxo. Não importa - não passam de índios adornados.

Passe uma semana em qualquer cidadezinha humilde do interior dos Estados Unidos e você verá a diferença entre civilização versus índios selvagens.