Por que ao mesmo tempo que o Brasil é um país racista, mulheres bronzeiam a pele?

As pessoas de pele branca sao mais bonitas aos olhos das pessoas, mas ao mesmo tempo os brasileiros gostam de bronze, ou seja pagar pra ter a pele mais escura, qual o sentido disso?
13/06/2024 10h55

OL Brasil NÃO É UM PAIS RACISTA, existe apenas algumas pessoas racistas. Tem gente que

gosta de fazer alarde demais por uma coisa que NÃO EXISTE. Mania de generalizar, se fosse mesmo racista não teria tanta miscigenação.