Por que ao mesmo tempo que o Brasil é um país racista, mulheres bronzeiam a pele?

As pessoas de pele branca sao mais bonitas aos olhos das pessoas, mas ao mesmo tempo os brasileiros gostam de bronze, ou seja pagar pra ter a pele mais escura, qual o sentido disso?
13/06/2024 10h56

De fato, existe um racismo estrutural. Quando uma pessoa branca pega um bronzeado, a pele

não fica escura de forma análoga à pele dessas pessoas que sofrem preconceito. O bronzear é um certo sinal de status, indica que a pessoa tem tempo e poder aquisitivo para frequentar clubes e praias. Tanto que marquinha de biquini é considerado sexy, mas marca de camisa e bermuda não é.