Mulheres nunca conquistaram direito algum, os homens as deram... Concorda com isso? Por quê?

anônimo
eles respondem
Principalmente depois da revolução industrial ficou mt claro a importância delas na sociedade e economia, já nn dava pra adiar mais
Tem uma ambiguidade na pergunta,não deixa de ser vdd que os homens concederam os direitos pra elas,mas foi por mérito delas,ou seja,elas conquistaram