ARM Linux啟動流程分析——start_kernel前啟動階段(匯編部分)【轉】


轉自:https://blog.csdn.net/luckyapple1028/article/details/45287617?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromBaidu-8.channel_param&depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromBaidu-8.channel_param

本文整理了ARM Linxu啟動流程的第二階段——start_kernel前啟動階段(匯編部分),內核版本為3.12.35。我以手上的樹莓派b(ARM11)為平台示例來分析Linux內核在自解壓后到跳轉運行start_kernel之前所做的主要初始化工作:包括參數有效性驗證、創建初始頁表和MMU初始化等。


內核版本:Linux-3.12.35
分析文件:arch/arm/kernel/head.S、head-common.S、proc-v6.S

單板:樹莓派b


在內核啟動時執行自解壓完成后,會跳轉到解壓后的地址處運行,在我的環境中就是地址0x00008000處,然后內核啟動並執行初始化。

首先給出你內核啟動的匯編部分的總流程如下:

內核啟動程序的入口:參見arch/arm/kernel/vmlinux.lds(由arch/arm/kernel/vmlinux.lds.S生成)。

arch/arm/kernel/vmlinux.lds:

  1. ENTRY(stext)
  2. jiffies = jiffies_64;
  3. SECTIONS
  4. {
  5. ......
  6. . = 0xC0000000 + 0x00008000;
  7. .head.text : {
  8. _text = .;
  9. *(.head.text)
  10. }
  11. .text : { /* Real text segment */
  12. _stext = .; /* Text and read-only data */

此處的TEXT_OFFSET表示內核起始地址相對於RAM地址的偏移值,定義在arch/arm/Makefile中,值為0x00008000:

  1. textofs-y := 0x00008000
  2. ......
  3. # The byte offset of the kernel image in RAM from the start of RAM.
  4. TEXT_OFFSET := $(textofs-y)

PAGE_OFFSET表示內核虛擬地址空間的其實地址,定義在arch/arm/include/asm/memory.h中:

  1. #ifdef CONFIG_MMU
  2.  
  3. /*
  4. * PAGE_OFFSET - the virtual address of the start of the kernel image
  5. * TASK_SIZE - the maximum size of a user space task.
  6. * TASK_UNMAPPED_BASE - the lower boundary of the mmap VM area
  7. */
  8. #define PAGE_OFFSET UL(CONFIG_PAGE_OFFSET)
CONFIG_PAGE_OFFSET定義在arch/arm/Kconfig中,采用默認值0xC0000000。
  1. config PAGE_OFFSET
  2. hex
  3. default 0x40000000 if VMSPLIT_1G
  4. default 0x80000000 if VMSPLIT_2G
  5. default 0xC0000000

所以,可以看出內核的鏈接地址采用的是虛擬地址,地址值為0xC0008000。

內核啟動程序的入口在linux/arch/arm/kernel/head.S中,head.S中定義了幾個比較重要的變量,在看分析程序前先來看一下:

  1. /*
  2. * swapper_pg_dir is the virtual address of the initial page table.
  3. * We place the page tables 16K below KERNEL_RAM_VADDR. Therefore, we must
  4. * make sure that KERNEL_RAM_VADDR is correctly set. Currently, we expect
  5. * the least significant 16 bits to be 0x8000, but we could probably
  6. * relax this restriction to KERNEL_RAM_VADDR >= PAGE_OFFSET + 0x4000.
  7. */
  8. #define KERNEL_RAM_VADDR (PAGE_OFFSET + TEXT_OFFSET)
  9. #if (KERNEL_RAM_VADDR & 0xffff) != 0x8000
  10. #error KERNEL_RAM_VADDR must start at 0xXXXX8000
  11. #endif
  12.  
  13. #ifdef CONFIG_ARM_LPAE
  14. /* LPAE requires an additional page for the PGD */
  15. #define PG_DIR_SIZE 0x5000
  16. #define PMD_ORDER 3
  17. #else
  18. #define PG_DIR_SIZE 0x4000
  19. #define PMD_ORDER 2
  20. #endif
  21.  
  22. .globl swapper_pg_dir
  23. .equ swapper_pg_dir, KERNEL_RAM_VADDR - PG_DIR_SIZE
  24.  
  25. .macro pgtbl, rd, phys
  26. add \rd, \phys, #TEXT_OFFSET - PG_DIR_SIZE
  27. .endm

其中KERNEL_RAM_VADDR表示內核啟動地址的虛擬地址,即前面看到的鏈接地址0xC0008000,同時內核要求這個地址的第16位必須是0x8000。

然后由於沒有配置ARM LPAE,則采用一級映射結構,頁表的大小為16KB,頁大小為1MB。

最后swapper_pg_dir表示初始頁表的起始地址,這個值等於內核起始虛擬地址-頁表大小=0xC0004000(內核起始地址下16KB空間存放頁表)。虛擬地址空間如下圖:

需要說明一下:在我的環境中,內核在自解壓階段被解壓到了0x00008000地址處,由於內核入口鏈接地址采用的是虛擬地址0xC0008000,這兩個地址並不相同;並且此時MMU並沒有被使能,所以無法進行虛擬地址到物理地址的轉換,程序開始執行后在打開MMU前的將使用位置無關碼。

在知道了內核的入口位置后,來看一下此時的設備和寄存器的狀態:

  1. /*
  2. * Kernel startup entry point.
  3. * ---------------------------
  4. *
  5. * This is normally called from the decompressor code. The requirements
  6. * are: MMU = off, D-cache = off, I-cache = dont care, r0 = 0,
  7. * r1 = machine nr, r2 = atags or dtb pointer.
  8. *
  9. * This code is mostly position independent, so if you link the kernel at
  10. * 0xc0008000, you call this at __pa(0xc0008000).
  11. *
  12. * See linux/arch/arm/tools/mach-types for the complete list of machine
  13. * numbers for r1.
  14. *
  15. * We're trying to keep crap to a minimum; DO NOT add any machine specific
  16. * crap here - that's what the boot loader (or in extreme, well justified
  17. * circumstances, zImage) is for.
  18. */
  19. . arm
  20.  
  21. __HEAD
  22. ENTRY(stext)
  23.  

注釋中說明了,此時的MMU關閉、D-cache關閉、r0 = 0、r1 = 機器碼、r2 = 啟動參數atags或dtb的地址(我的環境中使用的是atags),同時內核支持的機器碼被定義在了linux/arch/arm/tools/mach-types中。我樹莓派使用的是:

bcm2708                    MACH_BCM2708             BCM2708                            3138

 下面來逐行分析代碼:

  1. THUMB( adr r9, BSYM( 1f) ) @ Kernel is always entered in ARM.
  2. THUMB( bx r9 ) @ If this is a Thumb-2 kernel,
  3. THUMB( .thumb ) @ switch to Thumb now.
  4. THUMB( 1: )
  5.  
  6. #ifdef CONFIG_ARM_VIRT_EXT
  7. bl __hyp_stub_install
  8. #endif
  9. @ ensure svc mode and all interrupts masked
  10. safe_svcmode_maskall r9
  11.  
  12. mrc p15, 0, r9, c0, c0 @ get processor id
  13. bl __lookup_processor_type @ r5=procinfo r9=cpuid

這里的safe_svcmode_maskall是一個宏,定義在arch/arm/include/asm/assembler.h中,它的作用就是確保ARM進入SVC工作模式並屏蔽所有的中斷(此時關閉中斷的原因是中斷向量表尚未建立,內核無能力響應中斷)。

然后獲取處理器ID保存到r9寄存器中,接着跳轉到__lookup_processor_type尋找對應處理器ID的proc_info地址。__lookup_processor_type定義在arch/arm/kernel/head-common.S中:

  1. /*
  2. * Read processor ID register (CP#15, CR0), and look up in the linker-built
  3. * supported processor list. Note that we can't use the absolute addresses
  4. * for the __proc_info lists since we aren't running with the MMU on
  5. * (and therefore, we are not in the correct address space). We have to
  6. * calculate the offset.
  7. *
  8. * r9 = cpuid
  9. * Returns:
  10. * r3, r4, r6 corrupted
  11. * r5 = proc_info pointer in physical address space
  12. * r9 = cpuid (preserved)
  13. */
  14. __lookup_processor_type:
  15. adr r3, __lookup_processor_type_data
  16. ldmia r3, {r4 - r6}
  17. sub r3, r3, r4 @ get offset between virt&phys
  18. add r5, r5, r3 @ convert virt addresses to
  19. add r6, r6, r3 @ physical address space
  20. 1: ldmia r5, {r3, r4} @ value, mask
  21. and r4, r4, r9 @ mask wanted bits
  22. teq r3, r4
  23. beq 2f
  24. add r5, r5, #PROC_INFO_SZ @ sizeof(proc_info_list)
  25. cmp r5, r6
  26. blo 1b
  27. mov r5, # 0 @ unknown processor
  28. 2: mov pc, lr
  29. ENDPROC(__lookup_processor_type)

首先獲取處理器相關信息表的運行地址並保存到r3寄存器中。內核將所有的處理器信息都保存在proc_info_list結構體表中,它的定義如下(asm/procinfo.h):

  1. /*
  2. * Note! struct processor is always defined if we're
  3. * using MULTI_CPU, otherwise this entry is unused,
  4. * but still exists.
  5. *
  6. * NOTE! The following structure is defined by assembly
  7. * language, NOT C code. For more information, check:
  8. * arch/arm/mm/proc-*.S and arch/arm/kernel/head.S
  9. */
  10. struct proc_info_list {
  11. unsigned int cpu_val;
  12. unsigned int cpu_mask;
  13. unsigned long __cpu_mm_mmu_flags; /* used by head.S */
  14. unsigned long __cpu_io_mmu_flags; /* used by head.S */
  15. unsigned long __cpu_flush; /* used by head.S */
  16. const char *arch_name;
  17. const char *elf_name;
  18. unsigned int elf_hwcap;
  19. const char *cpu_name;
  20. struct processor *proc;
  21. struct cpu_tlb_fns *tlb;
  22. struct cpu_user_fns *user;
  23. struct cpu_cache_fns *cache;
  24. };

結構體中描述了CPU相關的信息,其中__cpu_mm_mmu_flags、__cpu_io_mmu_flags和__cpu_flush這三個字段將會在head.s中使用到。處理器相關信息都被保存在.init.proc.info段中:

  1. /*
  2. * Look in <asm/procinfo.h> for information about the __proc_info structure.
  3. */
  4. .align 2
  5. .type __lookup_processor_type_data, %object
  6. __lookup_processor_type_data:
  7. . long .
  8. . long __proc_info_begin
  9. . long __proc_info_end
  10. .size __lookup_processor_type_data, . - __lookup_processor_type_data

vmlinux.lds:

  1. .init.proc.info : {
  2. . = ALIGN( 4); __proc_info_begin = .; *(.proc.info.init) __proc_info_end = .;
  3. }

其中每種類型處理器的信息定義在arch/arm/mm/proc-*.S下,例如我的環境定義在proc-v6.S中:

  1. .section ".proc.info.init", #alloc, #execinstr
  2.  
  3. /*
  4. * Match any ARMv6 processor core.
  5. */
  6. .type __v6_proc_info, #object
  7. __v6_proc_info:
  8. . long 0x0007b000
  9. . long 0x0007f000
  10. ALT_SMP(. long \
  11. PMD_TYPE_SECT | \
  12. PMD_SECT_AP_WRITE | \
  13. PMD_SECT_AP_READ | \
  14. PMD_FLAGS_SMP)
  15. ALT_UP(. long \
  16. PMD_TYPE_SECT | \
  17. PMD_SECT_AP_WRITE | \
  18. PMD_SECT_AP_READ | \
  19. PMD_FLAGS_UP)
  20. . long PMD_TYPE_SECT | \
  21. PMD_SECT_XN | \
  22. PMD_SECT_AP_WRITE | \
  23. PMD_SECT_AP_READ
  24. b __v6_setup
  25. ......

回到__lookup_processor_type程序中,程序接着在r4、r5和r6中保存__lookup_processor_type_data、__proc_info_begin和__proc_info_end的鏈接地址(即虛擬地址),然后通過r3 = r3 – r4得到運行地址和鏈接地址之間的偏移值並將r5和r6中的地址值修正為__proc_info_begin和__proc_info_end的運行地址。

然后從proc_info_list結構中取出cpu_val和cpu_mask字段的內容,和r9中保存的處理器ID進行比較,若匹配上了則通過r5寄存器返回當前處理器的proc_info_list結構信息運行地址,否則r5 = r5 + PROC_INFO_SZ(即將r5指向下一條處理器的proc_info_list結構提信息)繼續進行匹配。若全部匹配失敗,則r5返回0。

  1. movs r10, r5 @ invalid processor (r5=0)?
  2. THUMB( it eq ) @ force fixup-able long branch encoding
  3. beq __error_p @ yes, error 'p'

回到外層函數后,這里會先將返回值付給r10,然后判斷是否返回值是否為0,若為0表示沒有匹配到對應的處理器信息,調用__error_p打印出錯信息並進入死循環,內核啟動失敗。

  1. #ifdef CONFIG_ARM_LPAE
  2. mrc p15, 0, r3, c0, c1, 4 @ read ID_MMFR0
  3. and r3, r3, #0xf @ extract VMSA support
  4. cmp r3, # 5 @ long-descriptor translation table format?
  5. THUMB( it lo ) @ force fixup-able long branch encoding
  6. blo __error_p @ only classic page table format
  7. #endif

這里ARM_LAPE表示大物理內存擴展,我的環境下並沒有配置該項,暫不考慮。

  1. #ifndef CONFIG_XIP_KERNEL
  2. adr r3, 2f
  3. ldmia r3, {r4, r8}
  4. sub r4, r3, r4 @ (PHYS_OFFSET - PAGE_OFFSET)
  5. add r8, r8, r4 @ PHYS_OFFSET
  6. #else
  7. ldr r8, =PHYS_OFFSET @ always constant in this case
  8. #endif

這里將計算起始RAM物理地址並保存到r8中,計算的方法同前面獲取CPU信息結構地址的方法類似,首先獲取標號為2處的運行地址和鏈接地址(通過反匯編查看,我的環境分別是:0x00008070和0xC0008070),一減之后就得到了運行地址和物理地址的差值(0xC0000000),然后用這個差值加上PAGE_OFFSET(0xC0000000)即可得到實際物理內存的起始地址PHYS_OFFSET(0x00000000)。

現在來查看反匯編代碼,加深理解:

  1. c0008040: e28f3028 add r3, pc, # 40 ; 0x28
  2. c0008044: e8930110 ldm r3, {r4, r8}
  3. c0008048: e0434004 sub r4, r3, r4
  4. c000804c: e0888004 add r8, r8, r4
  5. ......
  6. c0008070: c0008070 andgt r8, r0, r0, ror r0
  7. c0008074: c0000000 andgt r0, r0, r0

這里r3 = 0x00008040 + 0x8 + 0x28 = 0x00008070,r4 =0xC0008070,r8 = 0xC0000000,在經過偏移處理后,r8的值就變成了0x00000000,即物理RAM首地址在內存地址空間中的偏移PAGE_OFFSET。(這里有一點疑問,如果我這里內核的運行地址並不是在0x00008000,那這個計算出道的物理RAM首地址不是就不正確了?)

  1. /*
  2. * r1 = machine no, r2 = atags or dtb,
  3. * r8 = phys_offset, r9 = cpuid, r10 = procinfo
  4. */
  5. bl __vet_atags

現在來確認一下寄存器中保存內容的含義:

r1:機器碼

r2:atag或者dtb的地址

r8:物理內存地址偏移

r9:獲取到的CPU ID

r10:處理器信息結構地址

然后調用__vet_atags來驗證r2中地址值得有效性

  1. /* Determine validity of the r2 atags pointer. The heuristic requires
  2. * that the pointer be aligned, in the first 16k of physical RAM and
  3. * that the ATAG_CORE marker is first and present. If CONFIG_OF_FLATTREE
  4. * is selected, then it will also accept a dtb pointer. Future revisions
  5. * of this function may be more lenient with the physical address and
  6. * may also be able to move the ATAGS block if necessary.
  7. *
  8. * Returns:
  9. * r2 either valid atags pointer, valid dtb pointer, or zero
  10. * r5, r6 corrupted
  11. */
  12. __vet_atags:
  13. tst r2, # 0x3 @ aligned?
  14. bne 1f
  15.  
  16. ldr r5, [r2, # 0]
  17. #ifdef CONFIG_OF_FLATTREE
  18. ldr r6, =OF_DT_MAGIC @ is it a DTB?
  19. cmp r5, r6
  20. beq 2f
  21. #endif
  22. cmp r5, #ATAG_CORE_SIZE @ is first tag ATAG_CORE?
  23. cmpne r5, #ATAG_CORE_SIZE_EMPTY
  24. bne 1f
  25. ldr r5, [r2, # 4]
  26. ldr r6, =ATAG_CORE
  27. cmp r5, r6
  28. bne 1f
  29.  
  30. 2: mov pc, lr @ atag/dtb pointer is ok
  31.  
  32. 1: mov r2, #0
  33. mov pc, lr
  34. ENDPROC(__vet_atags)

首先驗證是否4字節地址對齊,若不對齊則直接將r2內容清空並返回。接着讀取r2地址處的內容到r5寄存器中,這里若配置了CONFIG_OF_FLATTREE就會判斷是否是DTB,我的環境中並沒有配置。

然后進行atag的驗證,若是atag,則r2地址處的內容將保存tag_header中的size值(arch/arm/include/uapi/asm/setup.h),同時內核也要求atag信息的第一項必須是ATAT_CORE類型的項

  1. struct tag_header {
  2. __u32 size;
  3. __u32 tag;
  4. };
  5.  
  6. ......
  7.  
  8. struct tag_core {
  9. __u32 flags; /* bit 0 = read-only */
  10. __u32 pagesize;
  11. __u32 rootdev;
  12. };

該CORE項的size值為sizeof(struct tag_header) + sizeof(struct tag_core) >> 2,正好等於ATAG_CORE_SIZE:

#define ATAG_CORE_SIZE ((2*4 + 3*4) >> 2)

比較完size值后就將地址值偏移4字節讀取tag值,比較是否等於ATAG_CORE,若是則驗證通過則跳轉到標號2處直接返回。

  1. #ifdef CONFIG_SMP_ON_UP
  2. bl __fixup_smp
  3. #endif
  4. #ifdef CONFIG_ARM_PATCH_PHYS_VIRT
  5. bl __fixup_pv_table
  6. #endif
  7. bl __create_page_tables

然后我這里沒有配置CONFIG_SMP_ON_UP和CONFIG_ARM_PATCH_PHYS_VIRT選項(他們的內核配置解釋分別為Allowbooting SMP kernel on uniprocessor systems和Patch physical tovirtual translations at runtime),接下來就要跳轉到__create_page_tables中創建初始頁表了。

  1. /*
  2. * Setup the initial page tables. We only setup the barest
  3. * amount which are required to get the kernel running, which
  4. * generally means mapping in the kernel code.
  5. *
  6. * r8 = phys_offset, r9 = cpuid, r10 = procinfo
  7. *
  8. * Returns:
  9. * r0, r3, r5-r7 corrupted
  10. * r4 = page table (see ARCH_PGD_SHIFT in asm/memory.h)
  11. */
  12. __create_page_tables:
  13. pgtbl r4, r8 @ page table address

這里的注釋中說明了,創建初始頁表的過程只會創建內核代碼部分地址的頁表。

這里的pgtbl  r4, r8表示獲取存放頁表首地址的運行時地址(物理地址)到r4中去,它在反匯編中被翻譯成:

  1. c0008078 <__create_page_tables>:
  2. c0008078: e2884901 add r4, r8, # 16384 ; 0x4000

可見這里的r4值就是0x00004000,正好是頁表的起始物理地址。

  1. /*
  2. * Clear the swapper page table
  3. */
  4. mov r0, r4
  5. mov r3, # 0
  6. add r6, r0, #PG_DIR_SIZE
  7. 1: str r3, [r0], #4
  8. str r3, [r0], # 4
  9. str r3, [r0], # 4
  10. str r3, [r0], # 4
  11. teq r0, r6
  12. bne 1b

然后將頁表內存空間清零,從0x00004000~0x00008000的空間都清零。

  1. #ifdef CONFIG_ARM_LPAE
  2. /*
  3. * Build the PGD table (first level) to point to the PMD table. A PGD
  4. * entry is 64-bit wide.
  5. */
  6. mov r0, r4
  7. add r3, r4, # 0x1000 @ first PMD table address
  8. orr r3, r3, # 3 @ PGD block type
  9. mov r6, # 4 @ PTRS_PER_PGD
  10. mov r7, # 1 << (55 - 32) @ L_PGD_SWAPPER
  11. 1:
  12. #ifdef CONFIG_CPU_ENDIAN_BE8
  13. str r7, [r0], # 4 @ set top PGD entry bits
  14. str r3, [r0], # 4 @ set bottom PGD entry bits
  15. #else
  16. str r3, [r0], # 4 @ set bottom PGD entry bits
  17. str r7, [r0], # 4 @ set top PGD entry bits
  18. #endif
  19. add r3, r3, # 0x1000 @ next PMD table
  20. subs r6, r6, # 1
  21. bne 1b
  22.  
  23. add r4, r4, # 0x1000 @ point to the PMD tables
  24. #ifdef CONFIG_CPU_ENDIAN_BE8
  25. add r4, r4, # 4 @ we only write the bottom word
  26. #endif
  27. #endif

由於沒有配置ARM_LPAE,這一部分內容先暫時不做分析,接着往下看。

  1. ldr r7, [r10, #PROCINFO_MM_MMUFLAGS] @ mm_mmuflags
  2.  
  3. /*
  4. * Create identity mapping to cater for __enable_mmu.
  5. * This identity mapping will be removed by paging_init().
  6. */
  7. adr r0, __turn_mmu_on_loc
  8. ldmia r0, {r3, r5, r6}
  9. sub r0, r0, r3 @ virt->phys offset
  10. add r5, r5, r0 @ phys __turn_mmu_on
  11. add r6, r6, r0 @ phys __turn_mmu_on_end
  12. mov r5, r5, lsr #SECTION_SHIFT
  13. mov r6, r6, lsr #SECTION_SHIFT

這里開始創建特殊映射來滿足開啟MMU的需求,該映射將會在內核后續初始化執行paging_init()時被銷毀。

首先從處理器的procinfo結構中獲取__cpu_mm_mmu_flags參數保存在r7中,然后獲取標號__turn_mmu_on_loc處的運行地址保存到r0中,然后使用前文中類似的手段獲得__trun_mmu_on和__trun_mmu_on_end入口處的實際運行的物理地址保存到r5和r6寄存器中。

  1. __turn_mmu_on_loc:
  2. . long .
  3. . long __turn_mmu_on
  4. . long __turn_mmu_on_end

然后由於我的環境中沒有開啟LAPE,采用一級映射方式,映射單位為1M,所以這里的SECTION_SHIFT為20。這里對r5和r6中的值右移20位,得到了__trun_mmu_on和__trun_mmu_on_end的物理基地址。

  1. 1: orr r3, r7, r5, lsl #SECTION_SHIFT @ flags + kernel base
  2. str r3, [r4, r5, lsl #PMD_ORDER] @ identity mapping
  3. cmp r5, r6
  4. addlo r5, r5, # 1 @ next section
  5. blo 1b

這里將r5左移20位后或上r7中的標識位,得到了對應的First-level descriptor(即也表中存放的一級描述符,參見《ARM Linux啟動流程分析——內核自解壓階段》),然后將這個描述符寫到頁表中對應的項中去。

這里包括__trun_mmu_on和__trun_mmu_on_end之間地址空間的特殊映射方式同樣采用的是1:1映射,因此這里計算對應頁表向的方式如下:

頁表地址 = 映射物理基址 << PMD_ORDER(2)

例如:我環境中__trun_mmu_on物理地址為0xc0433398,它的基地址為0xc04,轉換為對應的表項為0x3010,所以會在0x00004000+0x3010處的頁表地址中寫入“頁描述符”,該描述描述符中的基址同樣為0xc04。在進行虛擬地址到物理地址的轉換過程中,即可實現x線性轉換(轉換方式參見《ARM Linux啟動流程分析——內核自解壓階段》)。

如此循環映射完整個__turn_mmu_on部分代碼,映射后的地址空間如下圖:

  1. /*
  2. * Map our RAM from the start to the end of the kernel .bss section.
  3. */
  4. add r0, r4, #PAGE_OFFSET >> (SECTION_SHIFT - PMD_ORDER)
  5. ldr r6, =(_end - 1)
  6. orr r3, r8, r7
  7. add r6, r4, r6, lsr #(SECTION_SHIFT - PMD_ORDER)
  8. 1: str r3, [r0], #1 << PMD_ORDER
  9. add r3, r3, # 1 << SECTION_SHIFT
  10. cmp r0, r6
  11. bls 1b

映射完開啟MMU部分的代碼后,接下來開始映射內核。

首先將PAGE_OFFSET(0xc0008000)右移(20-2)位在加上r4(頁表物理基地址)得到內核起始鏈接地址對應頁表項的物理地址,保存到r0中。

接着獲取內核代碼的結束虛擬地址(包括了bss段)保存到r6中,_end定義在vmlinux.lds中:

  1. _edata_loc = __data_loc + SIZEOF(.data);
  2. . = ALIGN( 0); __bss_start = .; . = ALIGN(0); .sbss : AT(ADDR(.sbss) - 0) { *(.sbss) *(.scommon) } . = ALIGN(0); .bss : AT(ADDR(.bss) - 0) { *(.bss..page_aligned) *(.dynbss) *(.bss) *(COMMON) } . = ALIGN(0); __bss_stop = .;
  3. _end = .;
  4. .stab 0 : { *(.stab) } .stabstr 0 : { *(.stabstr) } .stab.excl 0 : { *(.stab.excl) } .stab.exclstr 0 : { *(.stab.exclstr) } .stab.index 0 : { *(.stab.index) } .stab.indexstr 0 : { *(.stab.indexstr) } .comment 0 : { *(.comment) }
  5. .comment 0 : { *(.comment) }
  6. }

在我的環境中,它的值為0xc116c517。

接着將r7或上r8得到First-leveldescriptor保存到r3中(該值的高12位為0),然后計算內核結束虛擬地址對應應頁表項的物理地址保存到r6中。接下來的代碼將r0~r6中的頁表項循環循環填充上需要映射的First-level descriptor,每一次循環都會將r3+1<<SECTION_SHIFT,即加上基地址增量。建立映射表后的內存映射關系如下:



  1. /*
  2. * Then map boot params address in r2 if specified.
  3. * We map 2 sections in case the ATAGs/DTB crosses a section boundary.
  4. */
  5. mov r0, r2, lsr #SECTION_SHIFT
  6. movs r0, r0, lsl #SECTION_SHIFT
  7. subne r3, r0, r8
  8. addne r3, r3, #PAGE_OFFSET
  9. addne r3, r4, r3, lsr #(SECTION_SHIFT - PMD_ORDER)
  10. orrne r6, r7, r0
  11. strne r6, [r3], # 1 << PMD_ORDER
  12. addne r6, r6, # 1 << SECTION_SHIFT
  13. strne r6, [r3]

在映射完內核之后就需要映射內核啟動參數了,內核的啟動參數地址保存在r2中。在前面的程序中已經對r2中啟動參數地址的有效性進行了驗證,如果無效則現在r2中的值就是0,將不做映射操作。

此處代碼中的前兩行就是為了判斷該值是否為0,如果不為0才進行映射操作。

首先獲取啟動參數地址相對於物理RAM的偏移值並保存到r3中,然后再對該值加上PAGE_OFFSET(0xc0000000)得到其所需映射到的虛擬地址,接着找到對應的頁表和生成First-level descriptor,最后連續寫入連續的兩項頁表項來完成2頁的映射。也就是說不論內核啟動參數有多大,這里默認只映射2MB的內存。
	mov	pc, lr

映射完3個內存區間后,我這里過濾掉其他未定義的條件編譯項后直接看到代碼中執行返回操作,初始頁表創建完成。

我的環境中內核啟動參數的地址為0x00000100,所以映射結果如下:


  1. /*
  2. * The following calls CPU specific code in a position independent
  3. * manner. See arch/arm/mm/proc-*.S for details. r10 = base of
  4. * xxx_proc_info structure selected by __lookup_processor_type
  5. * above. On return, the CPU will be ready for the MMU to be
  6. * turned on, and r0 will hold the CPU control register value.
  7. */
  8. ldr r13, =__mmap_switched @ address to jump to after
  9. @ mmu has been enabled
  10. adr lr, BSYM( 1f) @ return (PIC) address
  11. mov r8, r4 @ set TTBR1 to swapper_pg_dir
  12. ARM( add pc, r10, #PROCINFO_INITFUNC )
  13. THUMB( add r12, r10, #PROCINFO_INITFUNC )
  14. THUMB( mov pc, r12 )
  15. 1: b __enable_mmu

這里首先保存__mmap_switched函數的鏈接地址(虛擬地址)到r13中,它是MMU開啟后的第一個要跳轉運行的虛擬地址。

然后保存返回地址為下文中標號1處的地址,此處為b __enable_mmu;接着保存r4中的頁表物理地址到r8寄存其中,最后就跳轉到架構相關的處理器初始化函數中執行初始化,為開啟MMU做准備工作;在執行完初始化函數后,將返回到lr保存的地址運行,開啟MMU。

這里的PROCINFO_INITFUNC宏定義為16,此時PC的值正好為參數__cpu_flush的值

  1. struct proc_info_list {
  2. unsigned int cpu_val;
  3. unsigned int cpu_mask;
  4. unsigned long __cpu_mm_mmu_flags; /* used by head.S */
  5. unsigned long __cpu_io_mmu_flags; /* used by head.S */
  6. unsigned long __cpu_flush; /* used by head.S */
  7. const char *arch_name;
  1. __v6_proc_info:
  2. . long 0x0007b000
  3. . long 0x0007f000
  4. ALT_SMP(. long \
  5. PMD_TYPE_SECT | \
  6. PMD_SECT_AP_WRITE | \
  7. PMD_SECT_AP_READ | \
  8. PMD_FLAGS_SMP)
  9. ALT_UP(. long \
  10. PMD_TYPE_SECT | \
  11. PMD_SECT_AP_WRITE | \
  12. PMD_SECT_AP_READ | \
  13. PMD_FLAGS_UP)
  14. . long PMD_TYPE_SECT | \
  15. PMD_SECT_XN | \
  16. PMD_SECT_AP_WRITE | \
  17. PMD_SECT_AP_READ
  18. b __v6_setup

在前文中已經看到,我的環境中在proc-v6.S已經定義了參數__cpu_flush的內容為b __v6_setup,所以這里會執行__v6_setup函數:

  1. /*
  2. * __v6_setup
  3. *
  4. * Initialise TLB, Caches, and MMU state ready to switch the MMU
  5. * on. Return in r0 the new CP15 C1 control register setting.
  6. *
  7. * We automatically detect if we have a Harvard cache, and use the
  8. * Harvard cache control instructions insead of the unified cache
  9. * control instructions.
  10. *
  11. * This should be able to cover all ARMv6 cores.
  12. *
  13. * It is assumed that:
  14. * - cache type register is implemented
  15. */
  16. __v6_setup:

__v6_setup函數主要是配置CPU的寄存器,這里不再詳細分析了,函數將會初始化TLB、Cache以及開啟MMU的一些必要的狀態(例如將頁表物理地址設置到TTB:Translation Table Base中),然后通過r0寄存器返回CP15 C1控制寄存器中的設置值。

  1. /*
  2. * Setup common bits before finally enabling the MMU. Essentially
  3. * this is just loading the page table pointer and domain access
  4. * registers.
  5. *
  6. * r0 = cp#15 control register
  7. * r1 = machine ID
  8. * r2 = atags or dtb pointer
  9. * r4 = page table (see ARCH_PGD_SHIFT in asm/memory.h)
  10. * r9 = processor ID
  11. * r13 = *virtual* address to jump to upon completion
  12. */
  13. __enable_mmu:
  14. #if defined(CONFIG_ALIGNMENT_TRAP) && __LINUX_ARM_ARCH__ < 6
  15. orr r0, r0, #CR_A
  16. #else
  17. bic r0, r0, #CR_A
  18. #endif
  19. #ifdef CONFIG_CPU_DCACHE_DISABLE
  20. bic r0, r0, #CR_C
  21. #endif
  22. #ifdef CONFIG_CPU_BPREDICT_DISABLE
  23. bic r0, r0, #CR_Z
  24. #endif
  25. #ifdef CONFIG_CPU_ICACHE_DISABLE
  26. bic r0, r0, #CR_I
  27. #endif

完成了上面的准備工作后就要開啟MMU了,本質上這里僅僅是加載了頁表指針和域訪問控制寄存器。

首先這里根據內核配置選項再對r0中返回的CR15 CR1進行配置,這些宏定義在arch/arm/include/asm/cp15.h中,表示了寄存器每一位的定義,其中部分內容如下:

  1. #define CR_M (1 << 0) /* MMU enable */
  2. #define CR_A (1 << 1) /* Alignment abort enable */
  3. #define CR_C (1 << 2) /* Dcache enable */
  4. #define CR_W (1 << 3) /* Write buffer enable */
  5. #define CR_P (1 << 4) /* 32-bit exception handler */
  6. #define CR_D (1 << 5) /* 32-bit data address range */
  7. #define CR_L (1 << 6) /* Implementation defined */
  8. #define CR_B (1 << 7) /* Big endian */
  9. #define CR_S (1 << 8) /* System MMU protection */
  10. #define CR_R (1 << 9) /* ROM MMU protection */
  11. #define CR_F (1 << 10) /* Implementation defined */
  12. #define CR_Z (1 << 11) /* Implementation defined */
  13. #define CR_I (1 << 12) /* Icache enable */
  14. #define CR_V (1 << 13) /* Vectors relocated to 0xffff0000 */
  15. #define CR_RR (1 << 14) /* Round Robin cache replacement */
  16. #define CR_L4 (1 << 15) /* LDR pc can set T bit */
  17. #define CR_DT (1 << 16)
  18. ......

例如,如果內核CONFIG_CPU_DCACHE_DISABLE,則這里會清除CR_C位來使D-Cache失能等等。

  1. #ifndef CONFIG_ARM_LPAE
  2. mov r5, #(domain_val(DOMAIN_USER, DOMAIN_MANAGER) | \
  3. domain_val(DOMAIN_KERNEL, DOMAIN_MANAGER) | \
  4. domain_val(DOMAIN_TABLE, DOMAIN_MANAGER) | \
  5. domain_val(DOMAIN_IO, DOMAIN_CLIENT))
  6. mcr p15, 0, r5, c3, c0, 0 @ load domain access register

接下來這里設置域訪問控制寄存器,ARM處理器使用域管理內存訪問權限,它將虛擬內存區域划分為幾個區域,為每個區域附於訪問控制權限來進行保護和控制。

從手冊中看到,L1頁描述符中第[5:8]位標識所在的域(4位最大能表示16個域)。域訪問控制寄存器CP15 C3為一個32位寄存器:

其中每一項Dx占兩位(共16項),表示該域的權限,其含義如下:


代碼中domain_val宏定義如下(arch/arm/include/asm/domian.h):

  1. #define DOMAIN_KERNEL 0
  2. #define DOMAIN_TABLE 0
  3. #define DOMAIN_USER 1
  4. #define DOMAIN_IO 2
  5. ......
  6. #define DOMAIN_NOACCESS 0
  7. #define DOMAIN_CLIENT 1
  8. #ifdef CONFIG_CPU_USE_DOMAINS
  9. #define DOMAIN_MANAGER 3
  10. #else
  11. #define DOMAIN_MANAGER 1
  12. #endif
  13. ......
  14. #define domain_val(dom,type) ((type) << (2*(dom)))
  15.  

由於沒有配置CPU_USE_DOMAINS,所以不使用Manager權限展開后r5和c3寄存器的值為

0x00000015,對應關系如下:

D0 —— DOMAIN_KERNEL\DOMAIN_TABLE—— DOMAIN_CLIENT

D1 —— DOMAIN_USER —— DOMAIN_CLIENT

D2 —— DOMAIN_IO —— DOMAIN_CLIENT

  1. mcr p15, 0, r4, c2, c0, 0 @ load page table pointer
  2. #endif
  3. b __turn_mmu_on
  4. ENDPROC(__enable_mmu)

接下來將r4中保存的頁表物理地址寫入C2的TTB中,其實這一步驟已經在__v6_setup中已經做過了,這里重復了一次,需要注意的是r4中頁表物理地址的低5位已經被處理過了(頁表地址必須32字節對齊),用於設置PD0和PD1等,C2寄存器如下:

在設置完TTB后,就要跳轉到__turn_mmu_on開啟MMU了。

  1. ENTRY(__turn_mmu_on)
  2. mov r0, r0
  3. instr_sync
  4. mcr p15, 0, r0, c1, c0, 0 @ write control reg
  5. mrc p15, 0, r3, c0, c0, 0 @ read id reg
  6. instr_sync
  7. mov r3, r3
  8. mov r3, r13
  9. mov pc, r3
  10. __turn_mmu_on_end:

這里首先將前面配置過的r0寄存器寫入C1寄存器中,如此MMU就被啟動了,然后將前面保存在r13中的__mmap_switched函數的鏈接地址(虛擬地址)賦值到r3中,最后跳轉到__mmap_switched函數執行。

注意:由於在執行461行代碼(mcr  p15, 0, r0, c1, c0, 0)后MMU已經開啟了,CPU在取指時已經采用虛擬地址,需經過頁表的轉換,但是此時的PC寄存器的值卻還是按原來的順序取指(例如在執行461行代碼時,我的環境中PC的值為0x004333a0+8),也即如果不對__turn_mmu_on函數進行線性1:1映射的話,0x00XXXXXX處的地址無法解析,程序將無法繼續運行。

  1. /*
  2. * The following fragment of code is executed with the MMU on in MMU mode,
  3. * and uses absolute addresses; this is not position independent.
  4. *
  5. * r0 = cp#15 control register
  6. * r1 = machine ID
  7. * r2 = atags/dtb pointer
  8. * r9 = processor ID
  9. */
  10. __INIT
  11. __mmap_switched:
  12. adr r3, __mmap_switched_data
  13.  
  14. ldmia r3!, {r4, r5, r6, r7}
  15. cmp r4, r5 @ Copy data segment if needed
  16. 1: cmpne r5, r6
  17. ldrne fp, [r4], # 4
  18. strne fp, [r5], # 4
  19. bne 1b

在跳轉到__mmap_switched后,頁表建立完畢,MMU處於激活狀態,將使用絕對地址執行,不再采用位置無關代碼,所以從這里開始也就不需要再區分鏈接地址和實際的運行物理地址了。

首先將__mmap_switched_data的地址保存到r3中,然后將__data_loc、_sdata、__bss_start和_end變量的地址保存到r4、r5、r6和r7寄存器中。注意r3后面的嘆號,r3的值會遞增。

  1. .align 2
  2. .type __mmap_switched_data, %object
  3. __mmap_switched_data:
  4. . long __data_loc @ r4
  5. . long _sdata @ r5
  6. . long __bss_start @ r6
  7. . long _end @ r7
  8. . long processor_id @ r4
  9. . long __machine_arch_type @ r5
  10. . long __atags_pointer @ r6
  11. #ifdef CONFIG_CPU_CP15
  12. . long cr_alignment @ r7
  13. #else
  14. . long 0 @ r7
  15. #endif
  16. . long init_thread_union + THREAD_START_SP @ sp
  17. .size __mmap_switched_data, . - __mmap_switched_data

它們的地址值在我的環境中如下:

  1. c05ab2ac <__mmap_switched_data>:
  2. c05ab2ac: c1080000 mrsgt r0, (UNDEF: 8)
  3. c05ab2b0: c1080000 mrsgt r0, (UNDEF: 8)
  4. c05ab2b4: c10bccec smlattgt fp, ip, ip, ip
  5. c05ab2b8: c116c518 tstgt r6, r8, lsl r5

然后比較__data_loc和_sdata的值是否一致,若不一致則需要拷貝數據段。其中__data_loc是內核鏡像中數據段的存儲位置,在開啟CONFIG_XIP_KERNEL后該值不等於_sdata值,在vmlinux.lds.S中定義如下:

  1. #ifdef CONFIG_XIP_KERNEL
  2. __data_loc = ALIGN( 4); /* location in binary */
  3. . = PAGE_OFFSET + TEXT_OFFSET;
  4. #else
  5. __init_end = .;
  6. . = ALIGN(THREAD_SIZE);
  7. __data_loc = .;
  8. #endif
  9.  
  10. .data : AT(__data_loc) {
  11. _data = .; /* address in memory */
  12. _sdata = .;

而_sdata是數據段的鏈接位置。若開啟CONFIG_XIP_KERNEL,則這兩個值不等,所以需要將數據段拷貝到鏈接地址處(在RAM中)。在我的環境中,這兩個值一致,不需要拷貝。

  1. mov fp, # 0 @ Clear BSS (and zero fp)
  2. 1: cmp r6, r7
  3. strcc fp, [r6],#4
  4. bcc 1b
  5.  
  6. ARM( ldmia r3, {r4, r5, r6, r7, sp})
  7. THUMB( ldmia r3, {r4, r5, r6, r7} )
  8. THUMB( ldr sp, [r3, #16] )
  9. str r9, [r4] @ Save processor ID
  10. str r1, [r5] @ Save machine type
  11. str r2, [r6] @ Save atags pointer
  12. cmp r7, #0
  13. bicne r4, r0, #CR_A @ Clear 'A' bit
  14. stmneia r7, {r0, r4} @ Save control register values
  15. b start_kernel
  16. ENDPROC(__mmap_switched)

接下來首先清空BSS段,然后將processor_id、__machine_arch_type、__atags_pointer、cr_alignment和init_thread_union + THREAD_START_SP值依次讀取到r4、r5、r6、r7和sp中。其中processor_id、__machine_arch_type和__atags_pointer是定義在arch/arm/kerne/setup.c中的全局變量,分別用於保存處理器ID、bootloader傳入的機器ID和啟動參數地址。

然后依次將r9、r1和r2中保存的相應參數寫入到這些全局變量中去,以便后面執行start_kernel之后的程序中使用到。

接着判斷C7中的值是否為0,由於我的環境中已經配置了CONFIG_CPU_CP15,所以該值不為0,保存的是cr_alignment全局變量的地址。cr_alignment全局變量被定義在arch/arm/kernel/entry-armv.S中,和他一起使用的還有cr_no_alignment。他們分別被用來保存啟用和禁用“A域”的CP15 C1寄存器值。

    

“A域”的作用是控制是否啟用訪問對齊檢查,若開啟,在未對齊的訪問內存會發生data abort trap。程序中分別將啟用A域和禁用A域的C1寄存器值保存到cr_alignment和cr_no_alignment全局變量中以備后續使用。


最后跳轉到start_kernel函數進行進一步的初始化動作,內核啟動的匯編部分到這里結束。最后總結一下這部分主要完成了以下初始化:

(1)驗證處理器ID、內核啟動參數等地址的有效性;

(2)創建初始頁表,完成內核代碼、啟動參數和內核啟動MMU代碼這3部分內存映射;

(3)開啟MMU並保存參數。


參考文獻:1、《ARM Linux內核源碼剖析》

                    2、《ARM11 數據手冊》


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM