本实验旨在探究使用卷积神经网络(CNN)进行图像分类任务的效果,并使用阿里巴巴“图像和美”团队和香港理工大学纺织与制衣系联合推出的FashionAI数据集进行实验。FashionAI数据集是业界首个同时符合服饰专业性和机器学习要求的大规模高质量时尚数据集,数据集来源于天池“FashionAI全球挑战赛——服饰属性标签识别”竞赛。本实验将使用该数据集进行图像分类任务,通过对实验结果的分析,探究卷积神经网络在图像分类任务中的优势和局限性。通过本实验的探究,可以为进一步的图像分类任务提供参考和指导。同时,研究人员可基于本实验开展服饰图像检索、标签导航、服饰搭配等应用技术。
由于天池上下载的数据不是ImageNet的文件结构,而是把图片地址和label都存在csv文件里,而且csv表格里面的地址是相对地址,不能直接读取,label是nnnynnnn这种,不能直接喂给torchvision,故须自己写python代码来方便生成dataset。
训练集
训练集包括如下几个文件:round1_fashionAI_attributes_train.tar(初赛训练集), round1_fashionAI_attributes_test_A.tar(初赛测试集A榜+答案), round1_fashionAI_attributes_test_B.tar(初赛测试集B榜+答案), round2_fashionAI_attributes_train.tar(复赛训练集)
训练数据文件结构
a) 我们将提供用于训练的图像数据和识别标签,文件夹结构:
训练数据示例
上图对应的csv标注文件示例:
ImageName | AttrKey | AttrValues |
---|---|---|
0000001.jpg | sleeve_length_labels | nnnnnnnym |
0000001.jpg | skirt_length_labels | nynnnn |
0000001.jpg | neck_design_labels | nnnyn |
0000001.jpg | coat_length_labels | nnynnnnn |
标注文件格式说明:
ImageName : 图像文件名,对应Images文件夹下面的图像文件
AttrKey :属性维度,比如袖长(sleeve_length_labels),裤长(pant_length_labels)等等
AttrValues :AttrKey属性维度对应的属性值。袖长属性维度(AttrKey)有9个属性值(AttrValues):不存在,无袖,杯袖,短袖,中袖,七分袖,九分袖,长袖,超长袖。分别对应上图示例标注数据中的:nnnnnnmyn。一共九位,每一位是下面三个值中的一个:y(yes, 一定是) m(maybe, 可能是) n(no, 一定不是),对某个图的某个属性维度的标注数据中,有且只有一个“y”标注,其余的可能是“m”或者“n”。
# 数据预处理:整个项目只要跑一次
# 所有的 type 在天池数据集的 README.md 文件里
ALLTYPE = ['skirt_length_labels','coat_length_labels','collar_design_labels','lapel_design_labels','neck_design_labels','neckline_design_labels','pant_length_labels','sleeve_length_labels']
import pandas as pd
for type in ALLTYPE:
# 读取数据
df_train1 = pd.DataFrame(pd.read_csv("./autodl-tmp-cp/round1_fashionAI_attributes_train/Annotations/label.csv",header=None))
df_train2 = pd.DataFrame(pd.read_csv("./autodl-tmp-cp/round2_fashionAI_attributes_train/Annotations/label.csv",header=None))
df_test1a = pd.DataFrame(pd.read_csv("./autodl-tmp-cp/round1_fashionAI_attributes_test_a/Tests/round1_fashionAI_attributes_answer_a.csv",header=None))
df_test1b = pd.DataFrame(pd.read_csv("./autodl-tmp-cp/round1_fashionAI_attributes_test_b/Tests/round1_fashionAI_attributes_answer_b.csv",header=None))
print(df_train1)
# 选择数据
df_train1 = df_train1[df_train1[1] == type] # 判断等式是否成立
df_train2 = df_train2[df_train2[1] == type] # 判断等式是否成立
df_test1a = df_test1a[df_test1a[1] == type] # 判断等式是否成立
df_test1b = df_test1b[df_test1b[1] == type] # 判断等式是否成立
print(df_train1)
# 数据集的地址和label规范化
def df_label_std(df,pth):
df_std = df.copy()
for i in df.index :
df_std[0][i] = str(pth+str(df[0][i]))
if df[2][i][0] == 'y' :
df_std[2][i] = 0
elif df[2][i][1] == 'y' :
df_std[2][i] = 1
elif df[2][i][2] == 'y' :
df_std[2][i] = 2
elif df[2][i][3] == 'y' :
df_std[2][i] = 3
elif df[2][i][4] == 'y' :
df_std[2][i] = 4
elif df[2][i][5] == 'y' :
df_std[2][i] = 5
elif df[2][i][6] == 'y' :
df_std[2][i] = 6
elif df[2][i][7] == 'y' :
df_std[2][i] = 7
elif df[2][i][8] == 'y' :
df_std[2][i] = 8
elif df[2][i][9] == 'y' :
df_std[2][i] = 9
return df_std
df_train1_std = df_label_std(df_train1,"./autodl-tmp-cp/round1_fashionAI_attributes_train/")
df_train2_std = df_label_std(df_train2,"./autodl-tmp-cp/round2_fashionAI_attributes_train/")
df_test1a_std = df_label_std(df_test1a,"./autodl-tmp-cp/round1_fashionAI_attributes_test_a/")
df_test1b_std = df_label_std(df_test1b,"./autodl-tmp-cp/round1_fashionAI_attributes_test_b/")
print(df_train1_std)
# Pandas数据合并-重置索引
df_train = pd.concat([df_train1_std,df_train2_std], ignore_index=True)
df_eval = pd.concat([df_test1a_std], ignore_index=True)
df_test = pd.concat([df_test1b_std], ignore_index=True)
print(df_train)
# pandas 之 DataFrame 保存为文件
df_train.to_csv("./df-path/"+type+"/train.csv",header=False,index=False)
df_eval.to_csv("./df-path/"+type+"/eval.csv",header=False,index=False)
df_test.to_csv("./df-path/"+type+"/test.csv",header=False,index=False)
以上代码的主要作用是将 FashionAI 数据集中的标注数据按照不同的属性维度进行筛选和标准化,并将处理后的数据集分别保存为 train.csv、eval.csv 和 test.csv 三个文件。
数据集预处理的具体步骤如下:
基于数据集的特征,用以上代码对数据集进行预处理,我们就可以方便地在 PyTorch 中使用这些数据集进行模型训练和评估。
为了使模型更加快速的收敛,我们需要计算出mean和std的值:
# 计算归一化参数mean和std(整个实验只要跑一次)
import pandas as pd
from torchvision import transforms
from torch.utils import data
from PIL import Image
import torch
for attrkey in ALLATTRKEY:
df_train = pd.DataFrame(pd.read_csv("./df-path/"+attrkey+"/train.csv",header=None))
transform_aug = transforms.Compose([
transforms.Resize((224,224)), #图片统一缩放到224*224
transforms.ToTensor(),
])
class fashion_dataset_train(data.Dataset):
def __init__(self):
self.df = df_train
def __getitem__(self,index):
label = self.df[2][self.df.index[index-1]]
img = transform_aug(Image.open(self.df[0][self.df.index[index-1]]))
return img,label
def __len__(self):
return len(self.df)
dataset_train = fashion_dataset_train()
def get_mean_and_std(train_data):
train_loader = torch.utils.data.DataLoader(
train_data, batch_size=1, shuffle=False, num_workers=0,
pin_memory=True)
mean = torch.zeros(3)
std = torch.zeros(3)
for X, _ in train_loader:
for d in range(3):
mean[d] += X[:, d, :, :].mean()
std[d] += X[:, d, :, :].std()
mean.div_(len(train_data))
std.div_(len(train_data))
return list(mean.numpy()), list(std.numpy())
mean_and_std = get_mean_and_std(dataset_train)
print(mean_and_std)
# 将训练集计算得到的归一化参数mean和std保存到文件,并按照属性维度AttrKey的不同将文件保存在不同的文件夹中,以便后续读取
with open("./df-path/"+attrkey+"mean_and_std.txt", 'w') as f:
f.write(str(mean_and_std[0][0])+'\n')
f.write(str(mean_and_std[0][1])+'\n')
f.write(str(mean_and_std[0][2])+'\n')
f.write(str(mean_and_std[1][0])+'\n')
f.write(str(mean_and_std[1][1])+'\n')
f.write(str(mean_and_std[1][2])+'\n')
from torchvision import transforms
from cutout import Cutout # 自定义的 Cutout 操作 https://blog.csdn.net/u013685264/article/details/122562509
from random_erasing import RandomErasing # 自定义的 RandomErasing 操作 https://blog.csdn.net/u013685264/article/details/122564323
cut = Cutout() # 自定义的 Cutout 操作
re = RandomErasing() # 自定义的 RandomErasing 操作
norm_mean = [0.65300995, 0.61700195, 0.6039642]#[0.485, 0.456, 0.406]
norm_std = [0.24680348, 0.25832596, 0.25814256]#[0.229, 0.224, 0.225]
transform_aug = transforms.Compose([ # 定义数据增强的操作
transforms.RandomRotation(10), # 随机旋转
# transforms.CenterCrop(448), # 中心裁剪
# transforms.GaussianBlur(kernel_size=(21,21)), # 高斯模糊
# transforms.ColorJitter(brightness=0.5, contrast=0.5, saturation=0.5), # 随机调整亮度、对比度和饱和度
transforms.Resize([224, 224]), # 图片统一缩放到224*224
# transforms.RandomCrop(224, padding=16), # 随机裁剪
transforms.RandomHorizontalFlip(), # 随机水平翻转
transforms.ToTensor(), # 将图片转换为张量
transforms.Normalize(norm_mean, norm_std) # 归一化
])
transform_norm = transforms.Compose([ # 定义归一化的操作
transforms.Resize([224, 224]), # 图片统一缩放到224*224
transforms.ToTensor(), # 将图片转换为张量
transforms.Normalize(norm_mean, norm_std) # 归一化
])
这段代码定义了两个数据预处理的操作,分别为 transform_aug
和 transform_norm
。其中,transform_aug
包含了多个数据增强的操作,如旋转、裁剪、翻转、高斯模糊、颜色调整等,可以增强模型的鲁棒性和泛化能力。而 transform_norm
则只包含了归一化的操作,用于在模型训练和测试时对数据进行标准化处理,使得模型更容易学习和泛化。
# 显示照片 https://tianchi.aliyun.com/course/337/4003
from PIL import Image
cat = Image.open(df_train[0][df_train.index[0]]) # 从网上下载图片到本地后,再上传至DSW
print(cat.size)
cat_t = cut(transform_aug(cat)) # 传入transforms中的数据是PIL数据,lena_t为tensor
cat_t.shape # 3*224*224 ; 当T.CenterCrop()的参数大于T.Resize()的参数时,周围用0填充
transforms.ToPILImage()(cat_t)
# 自定义Dataset
from torch.utils import data
from PIL import Image
import torch as torch
class fashion_dataset_train(data.Dataset):
def __init__(self):
self.df = df_train
def __getitem__(self,index):
label = self.df[2][self.df.index[index-1]]
img = cutout(transform_aug(Image.open(self.df[0][self.df.index[index-1]]))) # tarmsform再cutout
return img,label
def __len__(self):
return len(self.df)
class fashion_dataset_eval(data.Dataset):
def __init__(self):
self.df = df_eval
def __getitem__(self,index):
label = self.df[2][self.df.index[index-1]]
img = transform_norm(Image.open(self.df[0][self.df.index[index-1]]))
return img,label
def __len__(self):
return len(self.df)
class fashion_dataset_test(data.Dataset):
def __init__(self):
self.df = df_test
def __getitem__(self,index):
label = self.df[2][self.df.index[index-1]]
img = transform_norm(Image.open(self.df[0][self.df.index[index-1]]))
return img,label
def __len__(self):
return len(self.df)
# 创建Dateset(可以自定义)
dataset_train = fashion_dataset_train() # Dataset部分自定义过的fashion_dataset_train
print("-训练集大小={}".format(len(dataset_train)))
dataset_eval = fashion_dataset_eval() # Dataset部分自定义过的fashion_dataset_eva
print("-验证集大小={}".format(len(dataset_eval)))
dataset_test = fashion_dataset_test() # Dataset部分自定义过的fashion_dataset_test
print("-测试集大小={}".format(len(dataset_test)))
模型 | 类型 | 论文时间 | 论文地址 |
---|---|---|---|
ResNet | CNN | CVPR 2016 | https://arxiv.org/abs/1512.0338 |
Resnext | CNN | CVPR 2017 | https://arxiv.org/abs/1611.05431 |
MobileNetV2 | 轻量级CNN | CVPR 2018 | https://arxiv.org/abs/1801.04381 |
MobileNetV3 | 轻量级CNN | ICCV 2019 | https://arxiv.org/abs/1905.02244 |
ShuffleNetV2 | 轻量级CNN | ECCV 2018 | https://arxiv.org/abs/1807.11164v1 |
RegNet | 轻量级CNN | CVPR 2020 | https://arxiv.org/pdf/2003.13678.pdf |
ConvNeXt | CNN | CVPR 2022 | https://arxiv.org/abs/2201.03545 |
MaxVit | Transformer | ECCV 2022 | https://arxiv.org/pdf/2204.01697.pdf |
综合算力和准确度的考量,最后选择的是轻量级卷积神经网络RegNet作为本实验所用网络。
from torchvision import models
# 创建 ResNet18 模型
# model = models.resnet18(weights = None).to(device)
# model.load_state_dict(torch.load('./models/resnet18-f37072fd.pth'))
# model = models.resnet50(weights = None).to(device)
# model.load_state_dict(torch.load('./models/resnet50-0676ba61.pth'))
# model = models.resnext50_32x4d(weights = None).to(device)
# model.load_state_dict(torch.load('./models/resnext50_32x4d-7cdf4587.pth'))
# model = models.mobilenet_v2(weights = None).to(device)
# model.load_state_dict(torch.load('./models/mobilenet_v2-b0353104.pth'))
# model = models.mobilenet_v3_large(weights = None).to(device)
# model.load_state_dict(torch.load('./models/mobilenet_v3_large-8738ca79.pth'))
# model = models.shufflenet_v2_x1_0(weights = None).to(device)
# model.load_state_dict(torch.load('./models/shufflenetv2_x1-5666bf0f80.pth'))
# model = models.shufflenet_v2_x2_0(weights = None).to(device)
# model.load_state_dict(torch.load('./models/shufflenetv2_x2_0-8be3c8ee.pth'))
# model = models.regnet_y_800mf(weights = None).to(device)
# model.load_state_dict(torch.load('./models/regnet_y_800mf-58fc7688.pth'))
model = models.regnet_y_1_6gf(weights = None).to(device)
model.load_state_dict(torch.load('./models/regnet_y_1_6gf-0d7bc02a.pth'))
# model = models.regnet_y_3_2gf(weights = None).to(device)
# model.load_state_dict(torch.load('./models/regnet_y_3_2gf-9180c971.pth'))
# model = models.convnext_tiny(weights = None).to(device)
# model.load_state_dict(torch.load('./models/convnext_tiny-983f1562.pth'))
# model = models.convnext_small(weights = None).to(device)
# model.load_state_dict(torch.load('./models/convnext_small-0c510722.pth'))
# model = models.convnext_base(weights = None).to(device)
# model.load_state_dict(torch.load('./models/convnext_base-6075fbad.pth'))
# model = models.maxvit_t(weights = None).to(device)
# model.load_state_dict(torch.load('./models/maxvit_t-bc5ab103.pth'))
torch.backends.cudnn.benchmark = True
模型 | batch size | learning rate | optimizer | scheduler | Epoch | 最好验证集acc | 最好验证集acc出现的Step | 说明 |
---|---|---|---|---|---|---|---|---|
resnet18 | 64 | 1e-2 | RMSprop | None | 30 | 0.7192 | 27 | 正常 |
resnet50 | 64 | 1e-2 | RMSprop | None | 30 | 0.6332 | 25 | 正常 |
resnext50_32x4d | 64 | 1e-2 | RMSprop | None | 30 | 0.7323 | 25 | 正常 |
shufflenet_v2_x1_0 | 64 | 1e-2 | RMSprop | None | 30 | 0.7887 | 26 | 正常 |
shufflenet_v2_x2_0 | 64 | 5e-3 | RMSprop | None | 30 | 0.7481 | 22 | 正常 |
mobilenet_v2 | 64 | 5e-3 | RMSprop | None | 30 | 0.3599 | 5 | 过拟合,训练acc递增,验证acc振荡 |
mobilenet_v3_large | 64 | 5e-3 | RMSprop | None | 30 | 0.501 | 11 | 过拟合,训练acc递增,验证acc振荡 |
maxvit | 64 | 5e-3 | RMSprop | None | 15 | 0.1968 | 2 | 欠拟合,训练acc递增,验证acc不动,训练开销太大 |
convnext_tiny | 64 | 1e-3 | RMSprop | None | 5 | 0.1204 | 1 | 训练验证acc和loss都严重振荡,降低学习率也不行,训练开销太大 |
regnet_y_800mf | 64 | 1e-3 | RMSprop | Cosine,T_max=30 | 90 | 0.8438 | 32 | 余弦退火后最好acc才0.8266,提升不大,且训练时间太长,故最后没有选择退火 |
regnet_y_1_6gf | 128 | 1e-3 | AdamW | Cosine,T_max=30 | 30 | 0.8431 | 30 | 最好,且训练时间可以接受 |
从上述试验结果来看,RegNet在验证集的准确度最高,且训练时间可以接受,故最后选择RegNet预训练网络进行进一步的实验。
代码如下
# 定义一个训练名字,方便保存日志和模型
name = "20_regnet_y_1_6gf_lr=1e-3+AdamW+Cosine"
# python:判断文件夹是否存在,不存在则创建
import os
if not os.path.isdir("./df-path/"+attrkey):
# 创建文件夹
os.makedirs("./df-path/"+attrkey)
# 导入环境
import torch.utils.data
from torch import nn
from torch.utils.tensorboard import SummaryWriter # TensorBoard 日志
from torch.cuda.amp import autocast # 混合精度
dataset_train_size = len(dataset_train)
dataset_eval_size = len(dataset_eval)
print("------训练集大小{}------".format(dataset_train_size))
print("------验证集大小{}------".format(dataset_eval_size))
# 加载数据
# 从数据集 data_train 和 data_test 中读取数据,并将数据分成 batch_size 个数据组成的 batch
dataloader_train = torch.utils.data.DataLoader(dataset_train, batch_size=128, num_workers=16, pin_memory=True, prefetch_factor=8, persistent_workers=True)
dataloader_eval = torch.utils.data.DataLoader(dataset_eval, batch_size=128, num_workers=16, pin_memory=True, prefetch_factor=8, persistent_workers=True)
dataloader_test = torch.utils.data.DataLoader(dataset_test, batch_size=128, num_workers=16)
# 训练轮数
EPOCHS = 30
# 定义损失函数为交叉熵损失函数
loss_fun = nn.CrossEntropyLoss().to(device)
# 定义优化器optimizer
learning_rate = 1e-3
# optimizer = torch.optim.SGD(model.parameters(), lr=learning_rate)
# optimizer = torch.optim.RMSprop(model.parameters(), lr=learning_rate)
optimizer = torch.optim.AdamW(model.parameters(),lr=learning_rate)
# 定义学习率调整器scheduler
# scheduler = torch.optim.lr_scheduler.StepLR(optimizer, step_size=10, gamma=1) # 按照 step_size=1 和 gamma=0.85 的方式对优化器的学习率进行调整
scheduler = torch.optim.lr_scheduler.CosineAnnealingLR(optimizer=optimizer, T_max=EPOCHS, eta_min=1e-6) # T_max 参数指的是 cosine 函数经过多少次更新完成二分之一个周期
# 记录训练次数
train_step = 0
eval_step = 0
eval_accuracy_max = 0
# 创建一个 TensorBoard 的日志记录器
writer = SummaryWriter("tf-logs/"+name)
# 开始训练和验证
for epoch in range(EPOCHS):
print("------第{}轮训练开始------".format(epoch + 1))
# 训练
# 将模型设置为训练模式
model.train()
# 记录训练准确率
train_accuracy = 0
for data in dataloader_train: # 这里的每一次循环都是一个 minibatch,一次 for 循环里面有 64 个数据。
# 数据分开 一个是图片数据,一个是图片标签
# 将数据和标签分别存储到 img 和 label 中,并将数据和标签转移到 GPU 上
img, label = data
img = img.to(device)
label = label.to(device)
with autocast(): # 混合精度
# 拿到模型的预测值
output = model(img)
# 计算损失值
loss = loss_fun(output, label)
# 优化器优化模型
# 优化开始~ ~ 先将梯度清零
optimizer.zero_grad()
# 反向传播+更新
loss.backward()
torch.nn.utils.clip_grad_norm_(model.parameters(), 20) # 梯度裁剪
optimizer.step()
train_step += 1
# 记录训练损失
# 每 100 次训练记录一次训练损失
if train_step % 10 == 0:
writer.add_scalar("train_loss", loss.item(), train_step)
print("第{}次训练,LOSS值为:{}".format(train_step, loss.item()))
# 记录训练准确率
accuracy = (output.argmax(1) == label).sum()
train_accuracy += accuracy
# 验证
# 将模型设置为评估模式
model.eval()
# 记录验证损失和验证准确率
loss_eval = 0
eval_accuracy = 0
with torch.no_grad():
for data in dataloader_eval:
# 将数据和标签分别存储到 img 和 label 中,并将数据和标签转移到 GPU 上
img, label = data
img = img.to(device)
label = label.to(device)
with autocast(): # 混合精度
# 拿到模型的预测值
output = model(img)
# 计算损失值
loss = loss_fun(output, label)
loss_eval += loss.item()
# 记录验证准确率
accuracy = (output.argmax(1) == label).sum()
eval_accuracy += accuracy
eval_step += 1
# 记录验证损失
print("第{}轮验证,LOSS值为:{}".format(epoch + 1, loss_eval))
writer.add_scalar("test_loss", loss_eval, eval_step)
# 记录训练准确率和验证准确率
print("第{}轮训练,准确率为:{}".format(epoch + 1, train_accuracy / dataset_train_size))
print("第{}轮验证,准确率为:{}".format(epoch + 1, eval_accuracy / dataset_eval_size))
writer.add_scalar("train_accuracy", train_accuracy / dataset_train_size, eval_step)
writer.add_scalar("test_accuracy", eval_accuracy / dataset_eval_size, eval_step)
# 模型保存
# 每个 epoch 保存一次模型
if eval_accuracy > eval_accuracy_max:
eval_accuracy_max = eval_accuracy
torch.save(model, "save/"+name+"/model_epoch={}_acc={}%.pth".format(epoch, (eval_accuracy / dataset_eval_size *100)//100))
print("模型已保存")
# 更新优化器的学习率
scheduler.step()
# 关闭 TensorBoard 日志记录器
writer.close()
# 测试
model = torch.load('save/16_regnet_y_800mf_lr=1e-3+RMSprop+Cosine.01+Cosine/model_epoch=28_acc=0.0%.pth').to(device)
# 测试准确率
test_accuracy = 0
with torch.no_grad():
for data in dataloader_test:
# 将数据和标签分别存储到 img 和 label 中,并将数据和标签转移到 GPU 上
img, label = data
img = img.to(device)
label = label.to(device)
# 记录测试准确率
accuracy = (output.argmax(1) == label).sum()
test_accuracy += accuracy
# 记录测试准确率
print("测试准确率为:{}".format(test_accuracy / dataset_eval_size))
测试准确率为:0.8291
通过本实验,我们能发现轻量级CNN,例如RegNet,在FashionAI数据集的分类上表现已经很好,验证集acc和测试集acc都达到了80%以上。
根据实验结果和分析,我们得出以下结论:
在FashionAI数据集上,卷积神经网络(CNN)在图像分类任务中表现出色。通过对数据集的训练和测试,我们得到了较高的分类准确率,证明了CNN在服饰图像分类中的有效性。
在实验中,我们使用了经典的卷积神经网络结构,如ResNet、ShuffleNet和MobileNet等。通过对比实验,我们发现在FashionAI数据集上,轻量化CNN(如RegNet)在分类任务中表现很好,具有很高的准确率和可以接受的训练开销。
实验结果还表明,数据预处理对图像分类任务的性能有重要影响。通过对图像进行预处理,如图像归一化、数据增强等,可以提高分类准确率和模型的鲁棒性。
综上所述,本实验通过对FashionAI数据集的图像分类任务,验证了卷积神经网络在服饰图像分类中的有效性和优越性。同时,我们也发现了一些局限性和改进空间,为进一步的研究和应用提供了指导和参考。
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。