Vocês acham que a vida de vocês melhorou depois que se tornaram adultos?
Poderiam dar uma resposta detalhada sobre o que pensam disso?
desconheecido
anônimo
12/03/2021 22h20
Não! Só piorou. Vieram as pressões, obrigações, responsabilidades e angústias. A vida adulta se resume
a isso.
0
comentários
curtir (
1
)
0
entrar
criar conta
criar pergunta