【Keras】基於SegNet和U-Net的遙感圖像語義分割


上兩個月參加了個比賽,做的是對遙感高清圖像做語義分割,美其名曰“天空之眼”。這兩周數據挖掘課期末project我們組選的課題也是遙感圖像的語義分割,所以剛好又把前段時間做的成果重新整理和加強了一下,故寫了這篇文章,記錄一下用深度學習做遙感圖像語義分割的完整流程以及一些好的思路和技巧。

數據集

首先介紹一下數據,我們這次采用的數據集是CCF大數據比賽提供的數據(2015年中國南方某城市的高清遙感圖像),這是一個小數據集,里面包含了5張帶標注的大尺寸RGB遙感圖像(尺寸范圍從3000×3000到6000×6000),里面一共標注了4類物體,植被(標記1)、建築(標記2)、水體(標記3)、道路(標記4)以及其他(標記0)。其中,耕地、林地、草地均歸為植被類,為了更好地觀察標注情況,我們將其中三幅訓練圖片可視化如下:藍色-水體,黃色-房屋,綠色-植被,棕色-馬路。更多數據介紹可以參看這里

現在說一說我們的數據處理的步驟。我們現在擁有的是5張大尺寸的遙感圖像,我們不能直接把這些圖像送入網絡進行訓練,因為內存承受不了而且他們的尺寸也各不相同。因此,我們首先將他們做隨機切割,即隨機生成x,y坐標,然后摳出該坐標下256*256的小圖,並做以下數據增強操作:

  1. 原圖和label圖都需要旋轉:90度,180度,270度
  2. 原圖和label圖都需要做沿y軸的鏡像操作
  3. 原圖做模糊操作
  4. 原圖做光照調整操作
  5. 原圖做增加噪聲操作(高斯噪聲,椒鹽噪聲)

這里我沒有采用Keras自帶的數據增廣函數,而是自己使用opencv編寫了相應的增強函數。

img_w = 256  
img_h = 256  

image_sets = ['1.png','2.png','3.png','4.png','5.png']

def gamma_transform(img, gamma):
    gamma_table = [np.power(x / 255.0, gamma) * 255.0 for x in range(256)]
    gamma_table = np.round(np.array(gamma_table)).astype(np.uint8)
    return cv2.LUT(img, gamma_table)

def random_gamma_transform(img, gamma_vari):
    log_gamma_vari = np.log(gamma_vari)
    alpha = np.random.uniform(-log_gamma_vari, log_gamma_vari)
    gamma = np.exp(alpha)
    return gamma_transform(img, gamma)
    

def rotate(xb,yb,angle):
    M_rotate = cv2.getRotationMatrix2D((img_w/2, img_h/2), angle, 1)
    xb = cv2.warpAffine(xb, M_rotate, (img_w, img_h))
    yb = cv2.warpAffine(yb, M_rotate, (img_w, img_h))
    return xb,yb
    
def blur(img):
    img = cv2.blur(img, (3, 3));
    return img

def add_noise(img):
    for i in range(200): #添加點噪聲
        temp_x = np.random.randint(0,img.shape[0])
        temp_y = np.random.randint(0,img.shape[1])
        img[temp_x][temp_y] = 255
    return img
    
    
def data_augment(xb,yb):
    if np.random.random() < 0.25:
        xb,yb = rotate(xb,yb,90)
    if np.random.random() < 0.25:
        xb,yb = rotate(xb,yb,180)
    if np.random.random() < 0.25:
        xb,yb = rotate(xb,yb,270)
    if np.random.random() < 0.25:
        xb = cv2.flip(xb, 1)  # flipcode > 0:沿y軸翻轉
        yb = cv2.flip(yb, 1)
        
    if np.random.random() < 0.25:
        xb = random_gamma_transform(xb,1.0)
        
    if np.random.random() < 0.25:
        xb = blur(xb)
    
    if np.random.random() < 0.2:
        xb = add_noise(xb)
        
    return xb,yb

def creat_dataset(image_num = 100000, mode = 'original'):
    print('creating dataset...')
    image_each = image_num / len(image_sets)
    g_count = 0
    for i in tqdm(range(len(image_sets))):
        count = 0
        src_img = cv2.imread('./data/src/' + image_sets[i])  # 3 channels
        label_img = cv2.imread('./data/label/' + image_sets[i],cv2.IMREAD_GRAYSCALE)  # single channel
        X_height,X_width,_ = src_img.shape
        while count < image_each:
            random_width = random.randint(0, X_width - img_w - 1)
            random_height = random.randint(0, X_height - img_h - 1)
            src_roi = src_img[random_height: random_height + img_h, random_width: random_width + img_w,:]
            label_roi = label_img[random_height: random_height + img_h, random_width: random_width + img_w]
            if mode == 'augment':
                src_roi,label_roi = data_augment(src_roi,label_roi)
            
            visualize = np.zeros((256,256)).astype(np.uint8)
            visualize = label_roi *50
            
            cv2.imwrite(('./aug/train/visualize/%d.png' % g_count),visualize)
            cv2.imwrite(('./aug/train/src/%d.png' % g_count),src_roi)
            cv2.imwrite(('./aug/train/label/%d.png' % g_count),label_roi)
            count += 1 
            g_count += 1

經過上面數據增強操作后,我們得到了較大的訓練集:100000張256*256的圖片。

卷積神經網絡

面對這類圖像語義分割的任務,我們可以選取的經典網絡有很多,比如FCN,U-Net,SegNet,DeepLab,RefineNet,Mask Rcnn,Hed Net這些都是非常經典而且在很多比賽都廣泛采用的網絡架構。所以我們就可以從中選取一兩個經典網絡作為我們這個分割任務的解決方案。我們根據我們小組的情況,選取了U-Net和SegNet作為我們的主體網絡進行實驗。

SegNet

SegNet已經出來好幾年了,這不是一個最新、效果最好的語義分割網絡,但是它勝在網絡結構清晰易懂,訓練快速坑少,所以我們也采取它來做同樣的任務。SegNet網絡結構是編碼器-解碼器的結構,非常優雅,值得注意的是,SegNet做語義分割時通常在末端加入CRF模塊做后處理,旨在進一步精修邊緣的分割結果。有興趣深究的可以看看這里

現在講解代碼部分,首先我們先定義好SegNet的網絡結構。

def SegNet():  
    model = Sequential()  
    #encoder  
    model.add(Conv2D(64,(3,3),strides=(1,1),input_shape=(3,img_w,img_h),padding='same',activation='relu'))  
    model.add(BatchNormalization())  
    model.add(Conv2D(64,(3,3),strides=(1,1),padding='same',activation='relu'))  
    model.add(BatchNormalization())  
    model.add(MaxPooling2D(pool_size=(2,2)))  
    #(128,128)  
    model.add(Conv2D(128, (3, 3), strides=(1, 1), padding='same', activation='relu'))  
    model.add(BatchNormalization())  
    model.add(Conv2D(128, (3, 3), strides=(1, 1), padding='same', activation='relu'))  
    model.add(BatchNormalization())  
    model.add(MaxPooling2D(pool_size=(2, 2)))  
    #(64,64)  
    model.add(Conv2D(256, (3, 3), strides=(1, 1), padding='same', activation='relu'))  
    model.add(BatchNormalization())  
    model.add(Conv2D(256, (3, 3), strides=(1, 1), padding='same', activation='relu'))  
    model.add(BatchNormalization())  
    model.add(Conv2D(256, (3, 3), strides=(1, 1), padding='same', activation='relu'))  
    model.add(BatchNormalization())  
    model.add(MaxPooling2D(pool_size=(2, 2)))  
    #(32,32)  
    model.add(Conv2D(512, (3, 3), strides=(1, 1), padding='same', activation='relu'))  
    model.add(BatchNormalization())  
    model.add(Conv2D(512, (3, 3), strides=(1, 1), padding='same', activation='relu'))  
    model.add(BatchNormalization())  
    model.add(Conv2D(512, (3, 3), strides=(1, 1), padding='same', activation='relu'))  
    model.add(BatchNormalization())  
    model.add(MaxPooling2D(pool_size=(2, 2)))  
    #(16,16)  
    model.add(Conv2D(512, (3, 3), strides=(1, 1), padding='same', activation='relu'))  
    model.add(BatchNormalization())  
    model.add(Conv2D(512, (3, 3), strides=(1, 1), padding='same', activation='relu'))  
    model.add(BatchNormalization())  
    model.add(Conv2D(512, (3, 3), strides=(1, 1), padding='same', activation='relu'))  
    model.add(BatchNormalization())  
    model.add(MaxPooling2D(pool_size=(2, 2)))  
    #(8,8)  
    #decoder  
    model.add(UpSampling2D(size=(2,2)))  
    #(16,16)  
    model.add(Conv2D(512, (3, 3), strides=(1, 1), padding='same', activation='relu'))  
    model.add(BatchNormalization())  
    model.add(Conv2D(512, (3, 3), strides=(1, 1), padding='same', activation='relu'))  
    model.add(BatchNormalization())  
    model.add(Conv2D(512, (3, 3), strides=(1, 1), padding='same', activation='relu'))  
    model.add(BatchNormalization())  
    model.add(UpSampling2D(size=(2, 2)))  
    #(32,32)  
    model.add(Conv2D(512, (3, 3), strides=(1, 1), padding='same', activation='relu'))  
    model.add(BatchNormalization())  
    model.add(Conv2D(512, (3, 3), strides=(1, 1), padding='same', activation='relu'))  
    model.add(BatchNormalization())  
    model.add(Conv2D(512, (3, 3), strides=(1, 1), padding='same', activation='relu'))  
    model.add(BatchNormalization())  
    model.add(UpSampling2D(size=(2, 2)))  
    #(64,64)  
    model.add(Conv2D(256, (3, 3), strides=(1, 1), padding='same', activation='relu'))  
    model.add(BatchNormalization())  
    model.add(Conv2D(256, (3, 3), strides=(1, 1), padding='same', activation='relu'))  
    model.add(BatchNormalization())  
    model.add(Conv2D(256, (3, 3), strides=(1, 1), padding='same', activation='relu'))  
    model.add(BatchNormalization())  
    model.add(UpSampling2D(size=(2, 2)))  
    #(128,128)  
    model.add(Conv2D(128, (3, 3), strides=(1, 1), padding='same', activation='relu'))  
    model.add(BatchNormalization())  
    model.add(Conv2D(128, (3, 3), strides=(1, 1), padding='same', activation='relu'))  
    model.add(BatchNormalization())  
    model.add(UpSampling2D(size=(2, 2)))  
    #(256,256)  
    model.add(Conv2D(64, (3, 3), strides=(1, 1), input_shape=(3,img_w, img_h), padding='same', activation='relu'))  
    model.add(BatchNormalization())  
    model.add(Conv2D(64, (3, 3), strides=(1, 1), padding='same', activation='relu'))  
    model.add(BatchNormalization())  
    model.add(Conv2D(n_label, (1, 1), strides=(1, 1), padding='same'))  
    model.add(Reshape((n_label,img_w*img_h)))  
    #axis=1和axis=2互換位置,等同於np.swapaxes(layer,1,2)  
    model.add(Permute((2,1)))  
    model.add(Activation('softmax'))  
    model.compile(loss='categorical_crossentropy',optimizer='sgd',metrics=['accuracy'])  
    model.summary()  
    return model  

然后需要讀入數據集。這里我們選擇的驗證集大小是訓練集的0.25。

def get_train_val(val_rate = 0.25):
    train_url = []    
    train_set = []
    val_set  = []
    for pic in os.listdir(filepath + 'src'):
        train_url.append(pic)
    random.shuffle(train_url)
    total_num = len(train_url)
    val_num = int(val_rate * total_num)
    for i in range(len(train_url)):
        if i < val_num:
            val_set.append(train_url[i]) 
        else:
            train_set.append(train_url[i])
    return train_set,val_set
    
# data for training  
def generateData(batch_size,data=[]):  
    #print 'generateData...'
    while True:  
        train_data = []  
        train_label = []  
        batch = 0  
        for i in (range(len(data))): 
            url = data[i]
            batch += 1 
            #print (filepath + 'src/' + url)
            #img = load_img(filepath + 'src/' + url, target_size=(img_w, img_h))  
            img = load_img(filepath + 'src/' + url)
            img = img_to_array(img) 
            # print img
            # print img.shape  
            train_data.append(img)  
            #label = load_img(filepath + 'label/' + url, target_size=(img_w, img_h),grayscale=True)
            label = load_img(filepath + 'label/' + url, grayscale=True)
            label = img_to_array(label).reshape((img_w * img_h,))  
            # print label.shape  
            train_label.append(label)  
            if batch % batch_size==0: 
                #print 'get enough bacth!\n'
                train_data = np.array(train_data)  
                train_label = np.array(train_label).flatten()  
                train_label = labelencoder.transform(train_label)  
                train_label = to_categorical(train_label, num_classes=n_label)  
                train_label = train_label.reshape((batch_size,img_w * img_h,n_label))  
                yield (train_data,train_label)  
                train_data = []  
                train_label = []  
                batch = 0  
 
# data for validation 
def generateValidData(batch_size,data=[]):  
    #print 'generateValidData...'
    while True:  
        valid_data = []  
        valid_label = []  
        batch = 0  
        for i in (range(len(data))):  
            url = data[i]
            batch += 1  
            #img = load_img(filepath + 'src/' + url, target_size=(img_w, img_h))
            img = load_img(filepath + 'src/' + url)
            #print img
            #print (filepath + 'src/' + url)
            img = img_to_array(img)  
            # print img.shape  
            valid_data.append(img)  
            #label = load_img(filepath + 'label/' + url, target_size=(img_w, img_h),grayscale=True)
            label = load_img(filepath + 'label/' + url, grayscale=True)
            label = img_to_array(label).reshape((img_w * img_h,))  
            # print label.shape  
            valid_label.append(label)  
            if batch % batch_size==0:  
                valid_data = np.array(valid_data)  
                valid_label = np.array(valid_label).flatten()  
                valid_label = labelencoder.transform(valid_label)  
                valid_label = to_categorical(valid_label, num_classes=n_label)  
                valid_label = valid_label.reshape((batch_size,img_w * img_h,n_label))  
                yield (valid_data,valid_label)  
                valid_data = []  
                valid_label = []  
                batch = 0  

然后定義一下我們訓練的過程,在這個任務上,我們把batch size定為16,epoch定為30,每次都存儲最佳model(save_best_only=True),並且在訓練結束時繪制loss/acc曲線,並存儲起來。

def train(args): 
    EPOCHS = 30
    BS = 16
    model = SegNet()  
    modelcheck = ModelCheckpoint(args['model'],monitor='val_acc',save_best_only=True,mode='max')  
    callable = [modelcheck]  
    train_set,val_set = get_train_val()
    train_numb = len(train_set)  
    valid_numb = len(val_set)  
    print ("the number of train data is",train_numb)  
    print ("the number of val data is",valid_numb)
    H = model.fit_generator(generator=generateData(BS,train_set),steps_per_epoch=train_numb//BS,epochs=EPOCHS,verbose=1,  
                    validation_data=generateValidData(BS,val_set),validation_steps=valid_numb//BS,callbacks=callable,max_q_size=1)  

    # plot the training loss and accuracy
    plt.style.use("ggplot")
    plt.figure()
    N = EPOCHS
    plt.plot(np.arange(0, N), H.history["loss"], label="train_loss")
    plt.plot(np.arange(0, N), H.history["val_loss"], label="val_loss")
    plt.plot(np.arange(0, N), H.history["acc"], label="train_acc")
    plt.plot(np.arange(0, N), H.history["val_acc"], label="val_acc")
    plt.title("Training Loss and Accuracy on SegNet Satellite Seg")
    plt.xlabel("Epoch #")
    plt.ylabel("Loss/Accuracy")
    plt.legend(loc="lower left")
    plt.savefig(args["plot"])

然后開始漫長的訓練,訓練時間接近3天,繪制出的loss/acc圖如下:

訓練loss降到0.1左右,acc可以去到0.9,但是驗證集的loss和acc都沒那么好,貌似存在點問題。

先不管了,先看看預測結果吧。

這里需要思考一下怎么預測整張遙感圖像。我們知道,我們訓練模型時選擇的圖片輸入是256×256,所以我們預測時也要采用256×256的圖片尺寸送進模型預測。現在我們要考慮一個問題,我們該怎么將這些預測好的小圖重新拼接成一個大圖呢?這里給出一個最基礎的方案:先給大圖做padding 0操作,得到一副padding過的大圖,同時我們也生成一個與該圖一樣大的全0圖A,把圖像的尺寸補齊為256的倍數,然后以256為步長切割大圖,依次將小圖送進模型預測,預測好的小圖則放在A的相應位置上,依次進行,最終得到預測好的整張大圖(即A),再做圖像切割,切割成原先圖片的尺寸,完成整個預測流程。

def predict(args):
    # load the trained convolutional neural network
    print("[INFO] loading network...")
    model = load_model(args["model"])
    stride = args['stride']
    for n in range(len(TEST_SET)):
        path = TEST_SET[n]
        #load the image
        image = cv2.imread('./test/' + path)
        # pre-process the image for classification
        #image = image.astype("float") / 255.0
        #image = img_to_array(image)
        h,w,_ = image.shape
        padding_h = (h//stride + 1) * stride 
        padding_w = (w//stride + 1) * stride
        padding_img = np.zeros((padding_h,padding_w,3),dtype=np.uint8)
        padding_img[0:h,0:w,:] = image[:,:,:]
        padding_img = padding_img.astype("float") / 255.0
        padding_img = img_to_array(padding_img)
        print 'src:',padding_img.shape
        mask_whole = np.zeros((padding_h,padding_w),dtype=np.uint8)
        for i in range(padding_h//stride):
            for j in range(padding_w//stride):
                crop = padding_img[:3,i*stride:i*stride+image_size,j*stride:j*stride+image_size]
                _,ch,cw = crop.shape
                if ch != 256 or cw != 256:
                    print 'invalid size!'
                    continue
                    
                crop = np.expand_dims(crop, axis=0)
                #print 'crop:',crop.shape
                pred = model.predict_classes(crop,verbose=2)  
                pred = labelencoder.inverse_transform(pred[0])  
                #print (np.unique(pred))  
                pred = pred.reshape((256,256)).astype(np.uint8)
                #print 'pred:',pred.shape
                mask_whole[i*stride:i*stride+image_size,j*stride:j*stride+image_size] = pred[:,:]

        
        cv2.imwrite('./predict/pre'+str(n+1)+'.png',mask_whole[0:h,0:w])

預測的效果圖如下:

一眼看去,效果真的不錯,但是仔細看一下,就會發現有個很大的問題:拼接痕跡過於明顯了!那怎么解決這類邊緣問題呢?很直接的想法就是縮小切割時的滑動步伐,比如我們把切割步伐改為128,那么拼接時就會有一般的圖像發生重疊,這樣做可以盡可能地減少拼接痕跡。

U-Net

對於這個語義分割任務,我們毫不猶豫地選擇了U-Net作為我們的方案,原因很簡單,我們參考很多類似的遙感圖像分割比賽的資料,絕大多數獲獎的選手使用的都是U-Net模型。在這么多的好評下,我們選擇U-Net也就毫無疑問了。

U-Net有很多優點,最大賣點就是它可以在小數據集上也能train出一個好的模型,這個優點對於我們這個任務來說真的非常適合。而且,U-Net在訓練速度上也是非常快的,這對於需要短時間就得出結果的期末project來說也是非常合適。U-Net在網絡架構上還是非常優雅的,整個呈現U形,故起名U-Net。這里不打算詳細介紹U-Net結構,有興趣的深究的可以看看論文。

現在開始談談代碼細節。首先我們定義一下U-Net的網絡結構,這里用的deep learning框架還是Keras。

注意到,我們這里訓練的模型是一個多分類模型,其實更好的做法是,訓練一個二分類模型(使用二分類的標簽),對每一類物體進行預測,得到4張預測圖,再做預測圖疊加,合並成一張完整的包含4類的預測圖,這個策略在效果上肯定好於一個直接4分類的模型。所以,U-Net這邊我們采取的思路就是對於每一類的分類都訓練一個二分類模型,最后再將每一類的預測結果組合成一個四分類的結果。

定義U-Net結構,注意了,這里的loss function我們選了binary_crossentropy,因為我們要訓練的是二分類模型。

def unet():
    inputs = Input((3, img_w, img_h))

    conv1 = Conv2D(32, (3, 3), activation="relu", padding="same")(inputs)
    conv1 = Conv2D(32, (3, 3), activation="relu", padding="same")(conv1)
    pool1 = MaxPooling2D(pool_size=(2, 2))(conv1)

    conv2 = Conv2D(64, (3, 3), activation="relu", padding="same")(pool1)
    conv2 = Conv2D(64, (3, 3), activation="relu", padding="same")(conv2)
    pool2 = MaxPooling2D(pool_size=(2, 2))(conv2)

    conv3 = Conv2D(128, (3, 3), activation="relu", padding="same")(pool2)
    conv3 = Conv2D(128, (3, 3), activation="relu", padding="same")(conv3)
    pool3 = MaxPooling2D(pool_size=(2, 2))(conv3)

    conv4 = Conv2D(256, (3, 3), activation="relu", padding="same")(pool3)
    conv4 = Conv2D(256, (3, 3), activation="relu", padding="same")(conv4)
    pool4 = MaxPooling2D(pool_size=(2, 2))(conv4)

    conv5 = Conv2D(512, (3, 3), activation="relu", padding="same")(pool4)
    conv5 = Conv2D(512, (3, 3), activation="relu", padding="same")(conv5)

    up6 = concatenate([UpSampling2D(size=(2, 2))(conv5), conv4], axis=1)
    conv6 = Conv2D(256, (3, 3), activation="relu", padding="same")(up6)
    conv6 = Conv2D(256, (3, 3), activation="relu", padding="same")(conv6)

    up7 = concatenate([UpSampling2D(size=(2, 2))(conv6), conv3], axis=1)
    conv7 = Conv2D(128, (3, 3), activation="relu", padding="same")(up7)
    conv7 = Conv2D(128, (3, 3), activation="relu", padding="same")(conv7)

    up8 = concatenate([UpSampling2D(size=(2, 2))(conv7), conv2], axis=1)
    conv8 = Conv2D(64, (3, 3), activation="relu", padding="same")(up8)
    conv8 = Conv2D(64, (3, 3), activation="relu", padding="same")(conv8)

    up9 = concatenate([UpSampling2D(size=(2, 2))(conv8), conv1], axis=1)
    conv9 = Conv2D(32, (3, 3), activation="relu", padding="same")(up9)
    conv9 = Conv2D(32, (3, 3), activation="relu", padding="same")(conv9)

    conv10 = Conv2D(n_label, (1, 1), activation="sigmoid")(conv9)
    #conv10 = Conv2D(n_label, (1, 1), activation="softmax")(conv9)

    model = Model(inputs=inputs, outputs=conv10)
    model.compile(optimizer='Adam', loss='binary_crossentropy', metrics=['accuracy'])
    return model

讀取數據的組織方式有一些改動。

# data for training  
def generateData(batch_size,data=[]):  
    #print 'generateData...'
    while True:  
        train_data = []  
        train_label = []  
        batch = 0  
        for i in (range(len(data))): 
            url = data[i]
            batch += 1 
            img = load_img(filepath + 'src/' + url)
            img = img_to_array(img) 
            train_data.append(img)  
            label = load_img(filepath + 'label/' + url, grayscale=True) 
            label = img_to_array(label)
            #print label.shape  
            train_label.append(label)  
            if batch % batch_size==0: 
                #print 'get enough bacth!\n'
                train_data = np.array(train_data)  
                train_label = np.array(train_label)  

                yield (train_data,train_label)  
                train_data = []  
                train_label = []  
                batch = 0  
 
# data for validation 
def generateValidData(batch_size,data=[]):  
    #print 'generateValidData...'
    while True:  
        valid_data = []  
        valid_label = []  
        batch = 0  
        for i in (range(len(data))):  
            url = data[i]
            batch += 1  
            img = load_img(filepath + 'src/' + url)
            #print img
            img = img_to_array(img)  
            # print img.shape  
            valid_data.append(img)  
            label = load_img(filepath + 'label/' + url, grayscale=True)
            valid_label.append(label)  
            if batch % batch_size==0:  
                valid_data = np.array(valid_data)  
                valid_label = np.array(valid_label)  
                yield (valid_data,valid_label)  
                valid_data = []  
                valid_label = []  
                batch = 0  

訓練:指定輸出model名字和訓練集位置

python unet.py --model unet_buildings20.h5 --data ./unet_train/buildings/

預測單張遙感圖像時我們分別使用4個模型做預測,那我們就會得到4張mask(比如下圖就是我們用訓練好的buildings模型預測的結果),我們現在要將這4張mask合並成1張,那么怎么合並會比較好呢?我思路是,通過觀察每一類的預測結果,我們可以從直觀上知道哪些類的預測比較准確,那么我們就可以給這些mask圖排優先級了,比如:priority:building>water>road>vegetation,那么當遇到一個像素點,4個mask圖都說是屬於自己類別的標簽時,我們就可以根據先前定義好的優先級,把該像素的標簽定為優先級最高的標簽。代碼思路可以參照下面的代碼:

def combind_all_mask():
    for mask_num in tqdm(range(3)):
        if mask_num == 0:
            final_mask = np.zeros((5142,5664),np.uint8)#生成一個全黑全0圖像,圖片尺寸與原圖相同
        elif mask_num == 1:
            final_mask = np.zeros((2470,4011),np.uint8)
        elif mask_num == 2:
            final_mask = np.zeros((6116,3356),np.uint8)
        #final_mask = cv2.imread('final_1_8bits_predict.png',0)
        
        if mask_num == 0:
            mask_pool = mask1_pool
        elif mask_num == 1:
            mask_pool = mask2_pool
        elif mask_num == 2:
            mask_pool = mask3_pool
        final_name = img_sets[mask_num]
        for idx,name in enumerate(mask_pool):
            img = cv2.imread('./predict_mask/'+name,0)
            height,width = img.shape
            label_value = idx+1  #coressponding labels value
            for i in tqdm(range(height)):    #priority:building>water>road>vegetation
                for j in range(width):
                    if img[i,j] == 255:
                        if label_value == 2:
                            final_mask[i,j] = label_value
                        elif label_value == 3 and final_mask[i,j] != 2:
                            final_mask[i,j] = label_value
                        elif label_value == 4 and final_mask[i,j] != 2 and final_mask[i,j] != 3:
                            final_mask[i,j] = label_value
                        elif label_value == 1 and final_mask[i,j] == 0:
                            final_mask[i,j] = label_value
                        
        cv2.imwrite('./final_result/'+final_name,final_mask)           
                
                
print 'combinding mask...'
combind_all_mask()            

模型融合

集成學習的方法在這類比賽中經常使用,要想獲得好成績集成學習必須做得好。在這里簡單談談思路,我們使用了兩個模型,我們模型也會采取不同參數去訓練和預測,那么我們就會得到很多預測MASK圖,此時 我們可以采取模型融合的思路,對每張結果圖的每個像素點采取投票表決的思路,對每張圖相應位置的像素點的類別進行預測,票數最多的類別即為該像素點的類別。正所謂“三個臭皮匠,勝過諸葛亮”,我們這種ensemble的思路,可以很好地去掉一些明顯分類錯誤的像素點,很大程度上改善模型的預測能力。

少數服從多數的投票表決策略代碼:

import numpy as np
import cv2
import argparse

RESULT_PREFIXX = ['./result1/','./result2/','./result3/']

# each mask has 5 classes: 0~4

def vote_per_image(image_id):
    result_list = []
    for j in range(len(RESULT_PREFIXX)):
        im = cv2.imread(RESULT_PREFIXX[j]+str(image_id)+'.png',0)
        result_list.append(im)
        
    # each pixel
    height,width = result_list[0].shape
    vote_mask = np.zeros((height,width))
    for h in range(height):
        for w in range(width):
            record = np.zeros((1,5))
            for n in range(len(result_list)):
                mask = result_list[n]
                pixel = mask[h,w]
                #print('pix:',pixel)
                record[0,pixel]+=1
           
            label = record.argmax()
            #print(label)
            vote_mask[h,w] = label
    
    cv2.imwrite('vote_mask'+str(image_id)+'.png',vote_mask)
        

vote_per_image(3)

模型融合后的預測結果:

可以看出,模型融合后的預測效果確實有較大提升,明顯錯誤分類的像素點消失了。

額外的思路:GAN

我們對數據方面思考得更多一些,我們針對數據集小的問題,我們有個想法:使用生成對抗網絡去生成虛假的衛星地圖,旨在進一步擴大數據集。我們的想法就是,使用這些虛假+真實的數據集去訓練網絡,網絡的泛化能力肯定有更大的提升。我們的想法是根據這篇論文(pix2pix)來展開的,這是一篇很有意思的論文,它主要講的是用圖像生成圖像的方法。里面提到了用標注好的衛星地圖生成虛假的衛星地圖的想法,真的讓人耳目一新,我們也想根據該思路,生成屬於我們的虛假衛星地圖數據集。 Map to Aerial的效果是多么的震撼。

但是我們自己實現起來的效果卻不容樂觀(如下圖所示,右面那幅就是我們生成的假圖),效果不好的原因有很多,標注的問題最大,因為生成的虛假衛星地圖質量不好,所以該想法以失敗告終,生成的假圖也沒有拿去做訓練。但感覺思路還是可行的,如果給的標注合適的話,還是可以生成非常像的虛假地圖。

總結

對於這類遙感圖像的語義分割,思路還有很多,最容易想到的思路就是,將各種語義分割經典網絡都實現以下,看看哪個效果最好,再做模型融合,只要集成學習做得好,效果一般都會很不錯的。我們僅靠上面那個簡單思路(數據增強,經典模型搭建,集成學習),就已經可以獲得比賽的TOP 5%了,當然還有一些tricks可以使效果更進一步提升,這里就不細說了,總的建模思路掌握就行。完整的代碼可以在我的github獲取。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM