Não é novidade que o Brasil e os brasileiros têm uma imagem nos outros países, e até mais negativa do que positiva. Exemplo, esse esteriótipo de que todo brasileiro é malandro, e de que toda mulher brasileira é fácil para se conseguir sexo, é uma visão muito distorcida que ainda muitos gringos têm de nós.
Vocês acham que os brasileiros têm má reputação lá fora por causa do que a mídia mostra? Ou vocês acham que isso é culpa dos próprios brasileiros? Já que tem muitos que vão pra gringa e fazem coisas erradas...?