Las cicatrices son marcas que aparecen y permanecen en la piel después de lesiones, intervenciones quirúrgicas o tratamientos dermatológicos. Las cicatrices son generalmente antiestéticas, por lo que es fundamental cuidar la piel que está en proceso de cicatrización para que se vuelvan menos visibles.