Tipo, tem mais mulheres se formando e nas universidades, a tendência é elas irem dominando o mercado e os homens ficarem só com empregos insalubres assim elas teriam mais poder que os homens. Será que deveríamos se preocupar com isso?

anônimo