Python批量生成幻影坦克图片实例代码 前言 说到幻影坦克,我就想起红色警戒里的…… 幻影坦克(Mirage Tank),《红色警戒2》以及《尤里的复仇》中盟军的一款伪装坦克,盟军王牌坦克之一。是爱因斯坦在德国黑森林中研发的一种坦克。虽然它无法隐形,但它却可以利用先进的光线偏折原理可以伪装成树木(岩石或草丛)来隐藏自己。 在一些MOD中,幻影坦克可以选择变换的树木,这样便可以和背景的树木融合,而不会令人生疑。 额!这是从什么百科ctrl+v过来的吗。我跟你说个P~ UBG 不过话说回来,里面有一句说到和背景融合,这大概就是这种图片的原理所在了。 一些聊天软件或网站总是以白色背景和黑色背景(夜间模式)显示图片,你在默认的白色背景下看到一张图(图A),但是点击放大却变成另一张图(图B)。这是因为查看详情使用的背景是黑色背景。 之前在网上看到用PS制作幻影坦克效果图的方法,了解到几个图层混合模式的公式,也录制过PS动作来自动化操作。但总感觉不够效率,作为极客嘛,当然是要用代码来完成这些事情。 一、准备图片 创建一个文件夹Import,将你要处理的所有图片都放到这个文件夹里 图片的命名方式: 白色背景显示图A、黑色背景显示图B这种形式的,图B的文件名字是图A的名字加后缀_d 例如,图A为1.png,图B则为1_d.png,与之配对成为一组即可 表面是白色图片(图A),点击显示隐藏图片(图B)。这里并不需要你指定一张白色图片,不需要更改图片名字,程序找不到与之配对的后缀_d图片,会自动生成白色图片(图A) 相反的,表面看是图片(图A),点击却消失成纯黑色(图B)。只需要在图片名字加后缀_black 二、Python+PIL代码实现过程 Ⅰ. 初始化 注:脚本文件与 Import文件夹在同一目录 运行,导入模块,定义变量,创建导出目录Export,并将工作目录切换到Import # -*- coding: utf-8 -*- # python 3.7.2 # 2019/04/21 by sryml. import os import math from timeit import timeit from concurrent.futures import ThreadPoolExecutor, ProcessPoolExecutor from multiprocessing import cpu_count # import numba as nb import numpy as np from PIL import Image # --- IMPORT_FOLDER = 'Import' EXPORT_FOLDER = 'Export' IMAGE_FILES = [] # ALIGN2_A = 0 ALIGN2_B = 1 ALIGN2_MAX = 'max' NO_MODIFT = 0 STRETCH = 1 CONSTRAINT_RATIO = 2 # --- if __name__ == '__main__': if not os.path.exists(EXPORT_FOLDER): os.makedirs(EXPORT_FOLDER) os.chdir(IMPORT_FOLDER) Ⅱ. 将所有要处理的图片文件添加到列表 执行all_img2list() 获取当前目录(Import)所有文件,按名字升序排序。将后缀带_d的图B与图A配对一组,白图到原图,原图到黑图的图片也进行相关标记并存到一个列表。每个元组将生成一张幻影坦克图片 def all_img2list(): global IMAGE_FILES IMAGE_FILES= [] Imgs = os.listdir('./') Imgs.sort(key= lambda i: os.path.splitext(i)[0]) for i in Imgs: name = os.path.splitext(i) imgB= name[0]+'_d' + name[1] if imgB in Imgs: Imgs.remove(imgB) img_group= (i,imgB) elif name[0][-6:].lower() == '_black': img_group= (i,'_black') else: img_group= (i,None) IMAGE_FILES.append(img_group) Ⅲ. 自动化处理,多进程任务分配 执行AutoMTank() 不想让cpu满载运行,进程数量为cpu总核心减1,将列表里所有元组分成N等份集合的列表task_assign(N为进程数量) def AutoMTank(): cpu = cpu_count()-1 pool = ProcessPoolExecutor(cpu) #max_workers=4 L = IMAGE_FILES F = int(len(L)/cpu) task_assign = [L[n*F:] if (n+1)==cpu else L[n*F:(n+1)*F] for n in range(cpu)] results = list(pool.map(FlashMakeMTank, task_assign)) pool.shutdown() print ('\n%d辆幻影坦克制作完成!' % len(IMAGE_FILES)) 每个进程对接到的任务列表进行多线程处理:FlashMakeMTank 因为是图片算法处理,属于计算密集型,线程数量不需要太多。经过测试多线程还是有点效率提升的,线程数就设置为cpu核心数吧。 def FlashMakeMTank(task): pool = ThreadPoolExecutor(cpu_count()) results = list(pool.map(MakeMTank, task)) pool.shutdown() Ⅳ. 盟军战车工厂 每个线程都将它接到的任务 - 图片组丢给我们的盟军战车工厂:MakeMTank 来生产幻影坦克 开头是打开图A和图B文件对象赋值给imgA和imgB,判断到那些想要白图到原图效果的图片,则在内存中生成一张纯白色的图片对象赋值给imgA。原图到黑图则生成纯黑色图片对象赋值给imgB 别以为这战车工厂看起来这么短,实际上算法都是通过调用函数获得返回结果,解释起来可有点费劲 def MakeMTank(i_group): ratios= [0,0] align= [] if not i_group[1]: imgB= Image.open(i_group[0]) imgA= Image.new('L',imgB.size,(255,)) elif i_group[1]=='_black': imgA= Image.open(i_group[0]) imgB= Image.new('L',imgA.size,(0,)) else: imgA= Image.open(i_group[0]) imgB= Image.open(i_group[1]) ratios= [0.5,-0.5] #明度比值 # ALIGN2_MAX(取最大的宽和最大的高) ALIGN2_A(缩放到图A) ALIGN2_B(缩放到图B) # NO_MODIFT(不修改) STRETCH(拉伸) CONSTRAINT_RATIO(约束比例) align= [ALIGN2_B, CONSTRAINT_RATIO] A_Size,B_Size= imgA.size,imgB.size img_objs= [imgA,imgB] for n,img in enumerate(img_objs): if img.mode== 'RGBA': img= img.convert('RGB') img_array= np.array(img) if img.mode != 'L' and ( [(img_array[:,:,i]==img_array[:,:,2]).all() for i in range(2)]!= [True,True] ): img= Desaturate(img_array) #去色 else: img= img.convert('L') if align and (A_Size!=B_Size): img= ImgAlign(n,img,A_Size,B_Size,align) #图像对齐 if ratios[n]: img= Lightness(img,ratios[n]) #明度 img_objs[n]= img imgA,imgB = img_objs imgA = Invert(imgA) #反相 imgO = LinearDodge(imgA, imgB) #线性减淡(添加) imgR = Divide(imgO, imgB) #划分 imgR_mask = AddMask(imgR, imgO) #添加透明蒙版 name= os.path.splitext(i_group[0])[0] imgR_mask.save('../'+EXPORT_FOLDER+'/' + name+'.png') 图片对象打开完成之后呢,把它们放到一个列表里遍历它进行操作 首先判断到图片模式是否为RGBA,最后的A表示这张图片是带有透明通道的。而我们的幻影坦克原理就是利用的透明通道,怎能让它来胡搅蛮缠呢,速速将它转换为RGB模式 接着将图像对象转为数组,判断这张图片如果不是灰度模式并且还没有去色的情况下,那就要对它进行去色操作了。 去完色的再将它转为灰度模式。 有些人可能对灰度和去色有什么误解,灰度 ≠ 去色,这是重点。虽然它们的结果都是灰色的图片,但是算法不一样,呈现的图片对比度也不一样,直接转成灰度的坦克是没有灵魂的。RGB图片直接转灰度会丢失一些细节,所以要对它进行去色操作。下面的操作都是仿照PS的步骤来处理了 (1) 去色函数:Desaturate 公式:( max(r,g,b) + min(r,g,b) ) / 2 每个像素取其RGB颜色中最大与最小值的均数 这个函数接受一个数组参数 例如某个像素RGB值(233,50,23),计算得出 (233+23) / 2 = 128,这时候此像素点三个通道都是同一个值(128,128,128) 这个算法过程消耗的性能较多,像一张1000*1000的图片就得进行一百万次计算,因此我使用了numba.jit加速。 对图片数组进行操作,使用argsort()将所有像素的RGB值从小到大排序并返回一个索引数组。 uint8类型的值的范围在0~255,若计算出的值不在这范围则会抛出溢出错误,因此使用了int。 我创建了一个灰度图片数组data,将每一个对应像素的均值赋值给它,相当于去色后再转为灰度模式。 最后返回由数组转换成的图片对象 @nb.jit def Desaturate(img_array): idx_array = img_array.argsort() width = img_array.shape[1] height = img_array.shape[0] data = np.zeros((height,width),dtype=np.uint8) for x in range(height): for y in range(width): idx= idx_array[x,y] color_min= img_array[x,y, idx[0]] color_max= img_array[x,y, idx[2]] data[x,y]= round( (int(color_min) + int(color_max)) / 2 ) return Image.fromarray(data) (2) 图像对齐:ImgAlign 对齐方式(列表类型两个值) 对齐目标 缩放图像 ALIGN2_MAX 取最大的宽和最大的高 NO_MODIFT 不修改(缩小或仅画布) ALIGN2_A 图A STRETCH 拉伸 ALIGN2_B 图B CONSTRAINT_RATIO 约束比例 例如我要把图A对齐到图B且按比例缩放:mode = [ALIGN2_B, CONSTRAINT_RATIO] 这个函数接受5个参数 ①当前图片序号(0代表图A,1代表图B) ②当前图片对象 ③ - ④图A和图B的尺寸 ⑤对齐方式 def ImgAlign(idx,img,A_Size,B_Size,mode): size= img.size old_size= (A_Size,B_Size) if mode[0]== ALIGN2_MAX: total_size= max(A_Size[0], B_Size[0]), max(A_Size[1], B_Size[1]) if size != total_size: if mode[1]== STRETCH: img= img.resize(total_size, Image.ANTIALIAS) else: new_img= Image.new('L',total_size, (255 if idx==0 else 0,)) diff= (total_size[0]-size[0],total_size[1]-size[1]) min_diff= min(diff[0],diff[1]) if min_diff != 0 and mode[1]: idx= diff.index(min_diff) scale= total_size[idx] / size[idx] resize= [total_size[idx], round(size[1-idx]*scale)] if idx: resize.reverse() img= img.resize(resize, Image.ANTIALIAS) new_img.paste(img, [(total_size[i]-img.size[i])//2 for i in range(2)]) img= new_img elif idx != mode[0]: total_size= old_size[mode[0]] if mode[1]== STRETCH: img= img.resize(total_size, Image.ANTIALIAS) else: new_img= Image.new('L',total_size, (255 if idx==0 else 0,)) diff= (total_size[0]-size[0],total_size[1]-size[1]) min_diff= min(diff[0],diff[1]) if (min_diff > 0 and mode[1]) or (min_diff < 0): idx= diff.index(min_diff) scale= total_size[idx] / size[idx] resize= [total_size[idx], round(size[1-idx]*scale)] if idx: resize.reverse() img= img.resize(resize, Image.ANTIALIAS) new_img.paste(img, [(total_size[i]-img.size[i])//2 for i in range(2)]) img= new_img return img (3) 明度函数:Lightness 公式:255 * ratio + img * (1-ratio)     0 * ratio + img * (1-ratio) 为什么是两条公式呢,可以看到只有 255和 0的区别,一个是提高明度,一个是降低 注意,明度 ≠ 亮度,用亮度做出来的坦克是畸形的。亮度对颜色0和255不会起任何作用,任你怎么加亮度,我白是白,黑仍然是黑。这又涉及到幻影坦克效果的原理了,图A每个像素值必须大于图B对应的像素值,否则将没有透明度效果。 所以,最好的效果就是图A明度提高50%,图B降低50% 这个函数接受2个参数 ①图片对象 ②明度比值(-1~1) 尽量仿照PS的算法结果,提高明度的值为向下取整,降低明度为向上取整 def Lightness(img,ratio): if ratio>0: return img.point(lambda i: int(i*(1-ratio) + 255*ratio)) return img.point(lambda i: math.ceil(i*(1+ratio))) 实际上这是图层的不透明度混合公式,PS中,明度的实现就是在当前图层的上方创建一个白色或黑色图层,然后调整其透明度即可。所以, 明度调 100% 相当于白色图层的不透明度为100%,显示纯白 明度调 -100% 相当于黑色图层的不透明度为100%,显示纯黑。 看到这里,要暂停一下了。是不是感觉说了这么多都没有提到幻影坦克的详细原理,是的,只有当你理解了PS的不透明度混合公式,你才能理解后面的步骤。 (3-x) 重点!!推导幻影坦克的原理…… 这里需要用到PS的几个图层混合模式 不透明度混合公式:Img输出 = Img上 * o + Img下 * (1 - o) 小字母o代表不透明度。想一想,把两张图片导入到PS,上面的图层命名为imgA,下面的图层为imgB。 当imgA的不透明度为100%(o=1)时,根据图层混合公式得到img输出=imgA,也就是完全显示上层图像。 当imgA的不透明度为0%(o=0)时,得到img输出=imgB,完全显示下层图像。 当不透明度为50%,自然就看到了A与B的混合图像。 但是我们要将这两张图给整进一张图里,然后在类似手机QQ这种只有白色背景和黑色背景的环境下,分别显示出imgA和imgB。听起来有点抽象,不要慌,我们来列方程。假设这张最终成果图为imgR ① ImgA = ImgR * o + 255 * (1 - o) 白色背景下 ② ImgB = ImgR * o + 0 * (1 - o) 黑色背景下(点击放大后) 这时候ImgR充当上图层(Img上)。它有一个固定不透明度o,或者说是它的图层蒙版(ImgO表示ImgR的蒙版),蒙版的像素值为0~255的单通道灰度色值。填充为黑色0相当于图层的不透明度为0%,填充为白色相当于图层不透明度为100%。那么这个固定不透明度 o 实际上就是 ⑨ o = ImgO / 255 而Img下就是聊天软件中的白色背景和黑色背景两种可能了。 现在来解一下方程,由②得: ImgR = ImgB / o 将⑨ o = ImgO / 255 代入得 ③ ImgR = ImgB / ImgO * 255 将③和⑨代入①得: ImgA = (ImgB / ImgO * 255) * (ImgO / 255) + 255 * (1 - ImgO / 255) ImgA = ImgB / ImgO * ImgO / 255 * 255 + 255 * (1 - ImgO / 255) ImgA = ImgB + 2551 - 255(ImgO / 255) ImgA = ImgB + 255 - ImgO ④ ImgO = (255 - ImgA) + ImgB 那么现在,ImgB是我们已知的要在黑色背景下显示的图像,只要拿到ImgO就可以得出成品图ImgR了。 (255 - ImgA) 这个是什么意思,就是PS中的反相操作啦。让我们回到代码操作 (4) 反相函数:Invert 公式:255 - Img 即对每个像素进行 255-像素值 def Invert(img): return img.point(lambda i: 255-i) 反ImgA = Invert(ImgA ) 然后这个反相后的ImgA(反ImgA)与ImgB相加,即PS中的线性减淡模式 (5) 线性减淡(添加):LinearDodge 公式:Img上 + Img下 def LinearDodge(imgA, imgB): size = imgA.size imgO = Image.new('L',size,(0,)) pxA= imgA.load() pxB= imgB.load() pxO= imgO.load() for x in range(size[0]): for y in range(size[1]): pxO[x,y] = (pxA[x,y]+pxB[x,y],) return imgO 至此得到 ImgO = LinearDodge(反ImgA, ImgB) 注:之前我们说过ImgA的所有像素值必须大于ImgB。如果小于或等于,那么反相后加自身(或加比自身大的值)就是255了。因为ImgO是成果图ImgR的透明蒙版,ImgO=255意味着不透明度为100%,就没有透明效果了。 接着看方程式子③ ImgR = ImgB / ImgO * 255,这便是PS的一种图层混合模式划分了 (6) 划分:Divide 公式:Img下 / Img上 * 255 几个注意的条件 ①若混合色为黑色,基色非黑结果为白色、基色为黑结果为黑色(混合色是Img上,基色是Img下) ②若混合色为白色则结果为基色 ③若混合色与基色相同则结果为白色 不妨可以在PS中一试便知真假 def Divide(imgO, imgB): size = imgB.size imgR = Image.new('L',size,(0,)) pxB= imgB.load() pxO= imgO.load() pxR= imgR.load() for x in range(size[0]): for y in range(size[1]): o=pxO[x,y] b=pxB[x,y] if o==0: #如混合色为黑色,基色非黑结果为白色、基色为黑结果为黑色 color= (b and 255 or 0,) elif o==255: #混合色为白色则结果为基色 color=(b,) elif o==b: #混合色与基色相同则结果为白色 color=(255,) else: color=(round((b/o)*255),) pxR[x,y] = color return imgR 调用划分函数ImgR = Divide(ImgO, ImgB),终于,我们得到了梦寐以求的成果图ImgR 但不要忘了它的不透明度,把ImgO添加为它的图层蒙版 (6) 最后:添加透明蒙版并保存 def AddMask(imgR,imgO): img = imgR.convert("RGBA") img.putalpha(imgO) return img imgR_mask = AddMask(imgR, imgO) name= os.path.splitext(i_group[0])[0] imgR_mask.save('../'+EXPORT_FOLDER+'/' + name+'.png') 保存在导出文件夹。。。 个人感觉 这个脚本生成的幻影坦克与PS做的相比就犹如真假美猴王一般,说到美猴王,我就想起…… 三、完整代码文件 MirageTank.py # -*- coding: utf-8 -*- # python 3.7.2 # 2019/04/21 by sryml. import os import math from timeit import timeit from concurrent.futures import ThreadPoolExecutor, ProcessPoolExecutor from multiprocessing import cpu_count # import numba as nb import numpy as np from PIL import Image # --- IMPORT_FOLDER = 'Import' EXPORT_FOLDER = 'Export' IMAGE_FILES = [] # ALIGN2_A = 0 ALIGN2_B = 1 ALIGN2_MAX = 'max' NO_MODIFT = 0 STRETCH = 1 CONSTRAINT_RATIO = 2 # --- ### 图像对齐 def ImgAlign(idx,img,A_Size,B_Size,mode): size= img.size old_size= (A_Size,B_Size) if mode[0]== ALIGN2_MAX: total_size= max(A_Size[0], B_Size[0]), max(A_Size[1], B_Size[1]) if size != total_size: if mode[1]== STRETCH: img= img.resize(total_size, Image.ANTIALIAS) else: new_img= Image.new('L',total_size, (255 if idx==0 else 0,)) diff= (total_size[0]-size[0],total_size[1]-size[1]) min_diff= min(diff[0],diff[1]) if min_diff != 0 and mode[1]: idx= diff.index(min_diff) scale= total_size[idx] / size[idx] resize= [total_size[idx], round(size[1-idx]*scale)] if idx: resize.reverse() img= img.resize(resize, Image.ANTIALIAS) new_img.paste(img, [(total_size[i]-img.size[i])//2 for i in range(2)]) img= new_img elif idx != mode[0]: total_size= old_size[mode[0]] if mode[1]== STRETCH: img= img.resize(total_size, Image.ANTIALIAS) else: new_img= Image.new('L',total_size, (255 if idx==0 else 0,)) diff= (total_size[0]-size[0],total_size[1]-size[1]) min_diff= min(diff[0],diff[1]) if (min_diff > 0 and mode[1]) or (min_diff < 0): idx= diff.index(min_diff) scale= total_size[idx] / size[idx] resize= [total_size[idx], round(size[1-idx]*scale)] if idx: resize.reverse() img= img.resize(resize, Image.ANTIALIAS) new_img.paste(img, [(total_size[i]-img.size[i])//2 for i in range(2)]) img= new_img return img ### 去色 @nb.jit def Desaturate(img_array): idx_array = img_array.argsort() width = img_array.shape[1] height = img_array.shape[0] data = np.zeros((height,width),dtype=np.uint8) for x in range(height): for y in range(width): idx= idx_array[x,y] color_min= img_array[x,y, idx[0]] color_max= img_array[x,y, idx[2]] data[x,y]= round( (int(color_min) + int(color_max)) / 2 ) return Image.fromarray(data) ### 明度 def Lightness(img,ratio): if ratio>0: return img.point(lambda i: int(i*(1-ratio) + 255*ratio)) return img.point(lambda i: math.ceil(i*(1+ratio))) ### 反相 def Invert(img): return img.point(lambda i: 255-i) ### 线性减淡(添加) def LinearDodge(imgA, imgB): size = imgA.size imgO = Image.new('L',size,(0,)) pxA= imgA.load() pxB= imgB.load() pxO= imgO.load() for x in range(size[0]): for y in range(size[1]): pxO[x,y] = (pxA[x,y]+pxB[x,y],) return imgO ### 划分 def Divide(imgO, imgB): size = imgB.size imgR = Image.new('L',size,(0,)) pxB= imgB.load() pxO= imgO.load() pxR= imgR.load() for x in range(size[0]): for y in range(size[1]): o=pxO[x,y] b=pxB[x,y] if o==0: #如混合色为黑色,基色非黑结果为白色、基色为黑结果为黑色 color= (b and 255 or 0,) elif o==255: #混合色为白色则结果为基色 color=(b,) elif o==b: #混合色与基色相同则结果为白色 color=(255,) else: color=(round((b/o)*255),) pxR[x,y] = color return imgR def AddMask(imgR,imgO): img = imgR.convert("RGBA") img.putalpha(imgO) return img #### #### 将所有要处理的图片文件添加到列表 def all_img2list(): global IMAGE_FILES IMAGE_FILES= [] Imgs = os.listdir('./') Imgs.sort(key= lambda i: os.path.splitext(i)[0]) for i in Imgs: name = os.path.splitext(i) imgB= name[0]+'_d' + name[1] if imgB in Imgs: Imgs.remove(imgB) img_group= (i,imgB) elif name[0][-6:].lower() == '_black': img_group= (i,'_black') else: img_group= (i,None) IMAGE_FILES.append(img_group) def MakeMTank(i_group): ratios= [0,0] align= [] if not i_group[1]: imgB= Image.open(i_group[0]) imgA= Image.new('L',imgB.size,(255,)) elif i_group[1]=='_black': imgA= Image.open(i_group[0]) imgB= Image.new('L',imgA.size,(0,)) else: imgA= Image.open(i_group[0]) imgB= Image.open(i_group[1]) ratios= [0.5,-0.5] #明度比值 # ALIGN2_MAX(取最大的宽和最大的高) ALIGN2_A(缩放到图A) ALIGN2_B(缩放到图B) # NO_MODIFT(不修改) STRETCH(拉伸) CONSTRAINT_RATIO(约束比例) align= [ALIGN2_B, CONSTRAINT_RATIO] A_Size,B_Size= imgA.size,imgB.size img_objs= [imgA,imgB] for n,img in enumerate(img_objs): if img.mode== 'RGBA': img= img.convert('RGB') img_array= np.array(img) if img.mode != 'L' and ( [(img_array[:,:,i]==img_array[:,:,2]).all() for i in range(2)]!= [True,True] ): img= Desaturate(img_array) #去色 else: img= img.convert('L') if align and (A_Size!=B_Size): img= ImgAlign(n,img,A_Size,B_Size,align) #图像对齐 if ratios[n]: img= Lightness(img,ratios[n]) #明度 img_objs[n]= img imgA,imgB = img_objs imgA = Invert(imgA) #反相 imgO = LinearDodge(imgA, imgB) #线性减淡(添加) imgR = Divide(imgO, imgB) #划分 imgR_mask = AddMask(imgR, imgO) #添加透明蒙版 name= os.path.splitext(i_group[0])[0] imgR_mask.save('../'+EXPORT_FOLDER+'/' + name+'.png') def FlashMakeMTank(task): pool = ThreadPoolExecutor(cpu_count()) results = list(pool.map(MakeMTank, task)) pool.shutdown() def AutoMTank(): cpu = cpu_count()-1 pool = ProcessPoolExecutor(cpu) #max_workers=4 L = IMAGE_FILES F = int(len(L)/cpu) task_assign = [L[n*F:] if (n+1)==cpu else L[n*F:(n+1)*F] for n in range(cpu)] results = list(pool.map(FlashMakeMTank, task_assign)) pool.shutdown() print ('\n%d辆幻影坦克制作完成!' % len(IMAGE_FILES)) # --- def Fire(): all_img2list() sec = timeit(lambda:AutoMTank(),number=1) print ('Time used: {} sec'.format(sec)) s= input('\n按回车键退出...\n') if __name__ == '__main__': if not os.path.exists(EXPORT_FOLDER): os.makedirs(EXPORT_FOLDER) os.chdir(IMPORT_FOLDER) while True: s= input('>>> 按F进入坦克:') if s.upper()== 'F': print ('少女祈祷中...') Fire() #开炮 break elif not s: break 总结 以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,谢谢大家对中文源码网的支持。