Por que nas cidades dos Estados Unidos e nas ruas se vê muito mais verde e árvores do que nas cidades do Brasil?

Isso que dizem que o "Brasil" é um "país verde" por causa da Amazônia, mas uma rápida "viajada" pelo Google Maps se vê que pelas ruas Americanas existe muito mais verde do quê nas cidades Brasileiras, pq?
anônimo
anônimo
anônima
anônima
03/11/2023 20h16

Lá tem planejamento urbano, as árvores que tem lá foram plantadas justamente pra dar esse

ar de natureza, já que eles passaram a serra em tudo pra construir casas. Sem contar que o resto é tudo deserto, literalmente deserto, Hollywood é deserto, Califórnia, Texas etc.

Ademais, não sei aonde você vive mas aqui no Rio é tudo verde, ainda mais no centro, parece até que tá passando por dentro de uma floresta.