Linux-進程描述(1)—進程控制塊


進程概念介紹

   進程是操作系統對運行程序的一種抽象。

• 一個正在執行的程序;

• 一個正在計算機上執行的程序實例;

• 能分配給處理器並由處理器執行的實體;

• 一個具有普以下特征的活動單元:一組指令序列的執行、一個當前狀態和相關的系統資源集。

內核觀點:擔當分配系統資源(CPU時間,內存)的實體。進程的兩個基本元素:程序代碼(可能被執行的其他進程共享)、數據集。進程是一種動態描述,但是並不代表所有的進程都在運行。(進程在內存中因策略或調度需求,會處於各種狀態) 進程是處於執行期的程序以及它所管理的資源(如打開的文件、掛起的信號、進程狀態、地址空間等等)的總稱。注意,程序並不是進程,實際上兩個或多個進程不僅有可能執行同一程序,而且還有可能共享地址空間等資源。
進程描述

   ⼴義上,所有的進程信息被放在⼀個叫做進程控制塊的數據結構中,可以理解為進程屬性的集合,該控制塊由操作系統創建和管理。
進程控制塊

   進程控制塊是操作系統能夠支持多線程和提供多重處理技術的關鍵工具。每個進程在內核中都有⼀個進程控制塊(PCB)來維護進程相關的信息,Linux內核的 進程控制塊是task_struct結構體。現在我們全⾯了解⼀下其中都有哪些信息。 在Linux中,這個結構叫做task_struct。task_struct是Linux內核的⼀種數據結構,它會被裝載到RAM⾥並且包含着進程的信息。每個進程都把它的信息放在 task_struct 這個數據結構⾥,並且可以在 include/linux/sched.h ⾥找到它。所有運⾏在系統⾥的進程都以 task_struct 鏈表的形式存在內核⾥。task_struct 包含了這些內容
1、進程標⽰符(PID):描述本進程的唯⼀標⽰符,⽤來區別其他進程。⽗進程id(PPID)

1  pid_t pid;   //這個是進程號
2  pid_t tgid;  //這個是進程組號
3  pid_t Uid;   //用戶標識符
4  pid_t Euid; //有效用戶標識符
5  pid_t egid; //有效組標識符
6  pid_t Suid; //備份用戶標識符
7  pid_t sgid; //備份組標識符
8  pid_t Fsuid; //文件系統用戶標識符
9  pid_t fsgid;  //文件系統組標識符

在CONFIG_BASE_SMALL配置為0的情況下,PID的取值范圍是0到32767,即系統中的進程數最大為32768個。

1 /* linux-2.6.38.8/include/linux/threads.h */  
2 #define PID_MAX_DEFAULT (CONFIG_BASE_SMALL ? 0x1000 :0x8000)

   在Linux系統中,一個線程組中的所有線程使用和該線程組的領頭線程(該組中的第一個輕量級進程)相同的PID,並被存放在tgid成員中。只有線程組的領頭線程的pid成員才會被設置為與tgid相同的值。注意,getpid()系統調用返回的是當前進程的tgid值而不是pid值。

2、進程狀態 : 任務狀態,退出代碼,退出信號等。

 1   volatile long state;  
 2    int exit_state;  
 4   /*state成員的可能取值如下:*/
 5   #define TASK_RUNNING        0   //TASK_RUNNING表示進程要么正在執行,要么正要准備執行。
 6   #define TASK_INTERRUPTIBLE  1   //TASK_INTERRUPTIBLE表示進程被阻塞(睡眠),直到某個條件變為真。條件一旦達成,進程的狀態就被設置為TASK_RUNNING。
 7   #define TASK_UNINTERRUPTIBLE   2 //TASK_UNINTERRUPTIBLE的意義與TASK_INTERRUPTIBLE類似,除了不能通過接受一個信號來喚醒以外。
 8   #define __TASK_STOPPED      4   // __TASK_STOPPED表示進程被停止執行。
 9   #define __TASK_TRACED       8  //__TASK_TRACED表示進程被debugger等進程監視。
10   /* in tsk->exit_state */  
11  #define EXIT_ZOMBIE     16  //EXIT_ZOMBIE表示進程的執行被終止,但是其父進程還沒有使用wait()等系統調用來獲知它的終止信息。
12  #define EXIT_DEAD       32   EXIT_DEAD表示進程的最終狀態。
13  /* in tsk->state again */  
14  #define TASK_DEAD       64  
15  #define TASK_WAKEKILL       128  
16  #define TASK_WAKING     256 
17 /*EXIT_ZOMBIE和EXIT_DEAD也可以存放在exit_state成員中。*/

    volatile這個關鍵詞是告訴編譯器不要對其優化,編譯器有一個緩存優化的習慣,比如說,第一次在內存取數,編譯器發現后面還要用這個變量,於是把這個變量的值就放在寄存器中。這個關鍵詞就是要求編譯器不要優化,每次都讓CPU去內存取數。以確保狀態的變化能及時地反映上來。

3、進程調度(優先級 : 相對於其他進程的優先級。)

 1 int prio;static_prio, normal_prio; 
 2  /*prio用於保存動態優先級。
 3 static_prio用於保存靜態優先級,可以通過nice系統調用來進行修改。
normal_prio的值取決於靜態優先級和調度策略。
*/ 4 unsigned int rt_priority; //表示此進程的運行優先級 5 const struct sched_class *sched_class; // sched_class結構體表示調度類 6 struct sched_entity se; 7 struct sched_rt_entity rt; 8 /*se和rt都是調用實體,一個用於普通進程,一個用於實時進程,每個進程都有其中之一的實體。*/ 9 unsigned int policy; // policy表示進程的調度策略 10 cpumask_t cpus_allowed;// cpus_allowed用於控制進程可以在哪里處理器上運行。 11 // policy表示進程的調度策略,目前主要有以下五種: 12 #define SCHED_NORMAL 0 //SCHED_NORMAL用於普通進程,通過CFS調度器實現。 13 #define SCHED_FIFO 1 14 #define SCHED_RR 2 15 // SCHED_FIFO(先入先出調度算法)和SCHED_RR(輪流調度算法)都是實時調度策略。 16 #define SCHED_BATCH 3 //SCHED_BATCH用於非交互的處理器消耗型進程。 17 /* SCHED_ISO: reserved but not implemented yet */ 18 #define SCHED_IDLE 5 //SCHED_IDLE是在系統負載很低時使用。 19 //sched_class結構體表示調度類,目前內核中有實現以下四種: 20 /* linux-2.6.38.8/kernel/sched_fair.c */ 21 static const struct sched_class fair_sched_class; 22 /* linux-2.6.38.8/kernel/sched_rt.c */ 23 static const struct sched_class rt_sched_class; 24 /* linux-2.6.38.8/kernel/sched_idletask.c */ 25 static const struct sched_class idle_sched_class; 26 /* linux-2.6.38.8/kernel/sched_stoptask.c */ 27 static const struct sched_class stop_sched_class;

 實時優先級范圍是0到MAX_RT_PRIO-1(即99),而普通進程的靜態優先級范圍是從MAX_RT_PRIO到MAX_PRIO-1(即100到139)。值越大靜態優先級越低。

4、表示進程親屬關系的成員

 在Linux系統中,所有進程之間都有着直接或間接地聯系,每個進程都有其父進程,也可能有零個或多個子進程。擁有同一父進程的所有進程具有兄弟關系。

1 struct task_struct *real_parent; /* real parent process ,real_parent指向其父進程,如果創建它的父進程不再存在,則指向PID為1的init進程。 */  
2 struct task_struct *parent; /* recipient of SIGCHLD, wait4() reports, parent指向其父進程,當它終止時,必須向它的父進程發送信號。它的值通常與real_parent相同。 */  
3 struct list_head children;  /* list of my children, children表示鏈表的頭部,鏈表中的所有元素都是它的子進程。 */  
4 struct list_head sibling;   /* linkage in my parent's children list, sibling用於把當前進程插入到兄弟鏈表中。 */  
5 struct task_struct *group_leader;   /* threadgroup leader ,group_leader指向其所在進程組的領頭進程。*/  

   可以用下面這些通俗的關系來理解它們:real_parent是該進程的”親生父親“,不管其是否被“寄養”;parent是該進程現在的父進程,有可能是”繼父“;這里children指的是該進程孩子的鏈表,可以得到所有孩子的進程描述符,但是需使用list_for_each和list_entry,list_entry其實直接使用了container_of,同理,sibling該進程兄弟的鏈表,也就是其父親的所有孩子的鏈表。用法與children相似;struct task_struct *group_leader這個是主線程的進程描述符,也許你會奇怪,為什么線程用進程描述符表示,因為linux並沒有單獨實現線程的相關結構體,只是用一個進程來代替線程,然后對其做一些特殊的處理;struct list_head thread_group;這個是該進程所有線程的鏈表。

5、進程標記

   反應進程狀態的信息,但不是運行狀態,用於內核識別進程當前的狀態,以備下一步操作

 1 unsigned int flags; /* per process flags, defined below */  
 2 // flags成員的可能取值如下:
 3 #define PF_KSOFTIRQD    0x00000001  /* I am ksoftirqd */  
 4 #define PF_STARTING 0x00000002  /* being created */  
 5 #define PF_EXITING  0x00000004  /* getting shut down */  
 6 #define PF_EXITPIDONE   0x00000008  /* pi exit done on shut down */  
 7 #define PF_VCPU     0x00000010  /* I'm a virtual CPU */  
 8 #define PF_WQ_WORKER    0x00000020  /* I'm a workqueue worker */  
 9 #define PF_FORKNOEXEC   0x00000040  /* forked but didn't exec */  
10 #define PF_MCE_PROCESS  0x00000080      /* process policy on mce errors */  
11 #define PF_SUPERPRIV    0x00000100  /* used super-user privileges */  
12 #define PF_DUMPCORE 0x00000200  /* dumped core */  
13 #define PF_SIGNALED 0x00000400  /* killed by a signal */  
14 #define PF_MEMALLOC 0x00000800  /* Allocating memory */  
15 #define PF_USED_MATH    0x00002000  /* if unset the fpu must be initialized before use */  
16 #define PF_FREEZING 0x00004000  /* freeze in progress. do not account to load */  
17 #define PF_NOFREEZE 0x00008000  /* this thread should not be frozen */  
18 #define PF_FROZEN   0x00010000  /* frozen for system suspend */  
19 #define PF_FSTRANS  0x00020000  /* inside a filesystem transaction */  
20 #define PF_KSWAPD   0x00040000  /* I am kswapd */  
21 #define PF_OOM_ORIGIN   0x00080000  /* Allocating much memory to others */  
22 #define PF_LESS_THROTTLE 0x00100000 /* Throttle me less: I clean memory */  
23 #define PF_KTHREAD  0x00200000  /* I am a kernel thread */  
24 #define PF_RANDOMIZE    0x00400000  /* randomize virtual address space */  
25 #define PF_SWAPWRITE    0x00800000  /* Allowed to write to swap */  
26 #define PF_SPREAD_PAGE  0x01000000  /* Spread page cache over cpuset */  
27 #define PF_SPREAD_SLAB  0x02000000  /* Spread some slab caches over cpuset */  
28 #define PF_THREAD_BOUND 0x04000000  /* Thread bound to specific cpu */  
29 #define PF_MCE_EARLY    0x08000000      /* Early kill for mce process policy */  
30 #define PF_MEMPOLICY    0x10000000  /* Non-default NUMA mempolicy */  
31 #define PF_MUTEX_TESTER 0x20000000  /* Thread belongs to the rt mutex tester */  
32 #define PF_FREEZER_SKIP 0x40000000  /* Freezer should not count it as freezable */  
33 #define PF_FREEZER_NOSIG 0x80000000 /* Freezer won't send signals to it */  

6、進程內核棧

進程通過alloc_thread_info函數分配它的內核棧,通過free_thread_info函數釋放所分配的內核棧。

 1 void *stack; 
 2 //
 3 /* linux-2.6.38.8/kernel/fork.c */   
 4 static inline struct thread_info *alloc_thread_info(struct task_struct *tsk)  
 5 {  
 6 #ifdef CONFIG_DEBUG_STACK_USAGE  
 7     gfp_t mask = GFP_KERNEL | __GFP_ZERO;  
 8 #else  
 9     gfp_t mask = GFP_KERNEL;  
10 #endif  
11     return (struct thread_info *)__get_free_pages(mask, THREAD_SIZE_ORDER);  
12 }  
13 static inline void free_thread_info(struct thread_info *ti)  
14 {  
15     free_pages((unsigned long)ti, THREAD_SIZE_ORDER);  
16 }  
17  /*其中,THREAD_SIZE_ORDER宏在linux-2.6.38.8/arch/arm/include/asm/thread_info.h文件中被定義為1,也就是說alloc_thread_info函數通過調用__get_free_pages函數分配2個頁的內存(它的首地址是8192字節對齊的)。
18 
19     Linux內核通過thread_union聯合體來表示進程的內核棧,其中THREAD_SIZE宏的大小為8192。 */
20 union thread_union {  
21     struct thread_info thread_info;  
22     unsigned long stack[THREAD_SIZE/sizeof(long)];  
23 };  
24 /*當進程從用戶態切換到內核態時,進程的內核棧總是空的,所以ARM的sp寄存器指向這個棧的頂端。因此,內核能夠輕易地通過sp寄存器獲得當前正在CPU上運行的進程。*/
25 /* linux-2.6.38.8/arch/arm/include/asm/current.h */  
26 static inline struct task_struct *get_current(void)  
27 {  
28     return current_thread_info()->task;  
29 }  
30   
31 #define current (get_current())  
32   
33 /* linux-2.6.38.8/arch/arm/include/asm/thread_info.h */   
34 static inline struct thread_info *current_thread_info(void)  
35 {  
36     register unsigned long sp asm ("sp");  
37     return (struct thread_info *)(sp & ~(THREAD_SIZE - 1));  
38 } 

下圖中顯示了在物理內存中存放兩種數據結構的方式。線程描述符駐留與這個內存區的開始,而棧頂末端向下增長。在這個圖中,esp寄存器是CPU棧指針,用來存放棧頂單元的地址。在80x86系統中,棧起始於頂端,並朝着這個內存區開始的方向增長。從用戶態剛切換到內核態以后,進程的內核棧總是空的。因此,esp寄存器指向這個棧的頂端。一旦數據寫入堆棧,esp的值就遞減。

7、ptrace系統調用 

 1 unsigned int ptrace;  
 2 struct list_head ptraced;  
 3 struct list_head ptrace_entry;  
 4 unsigned long ptrace_message;  
 5 siginfo_t *last_siginfo; /* For ptrace use.  */  
 6 ifdef CONFIG_HAVE_HW_BREAKPOINT  
 7 atomic_t ptrace_bp_refcnt;  
 8 endif  
 9 /*成員ptrace被設置為0時表示不需要被跟蹤,它的可能取值如下:*/
10 /* linux-2.6.38.8/include/linux/ptrace.h */  
11 #define PT_PTRACED  0x00000001  
12 #define PT_DTRACE   0x00000002  /* delayed trace (used on m68k, i386) */  
13 #define PT_TRACESYSGOOD 0x00000004  
14 #define PT_PTRACE_CAP   0x00000008  /* ptracer can follow suid-exec */  
15 #define PT_TRACE_FORK   0x00000010  
16 #define PT_TRACE_VFORK  0x00000020  
17 #define PT_TRACE_CLONE  0x00000040  
18 #define PT_TRACE_EXEC   0x00000080  
19 #define PT_TRACE_VFORK_DONE 0x00000100  
20 #define PT_TRACE_EXIT   0x00000200 

8、Performance Event 

Performance Event是一款隨 Linux 內核代碼一同發布和維護的性能診斷工具。這些成員用於幫助PerformanceEvent分析進程的性能問題。

1 #ifdef CONFIG_PERF_EVENTS  
2     struct perf_event_context *perf_event_ctxp[perf_nr_task_contexts];  
3     struct mutex perf_event_mutex;  
4     struct list_head perf_event_list;  
5 #endif  

9、判斷標志

 1 int exit_code, exit_signal;  
 2 /*exit_code用於設置進程的終止代號,這個值要么是_exit()或exit_group()系統調用參數(正常終止),要么是由內核提供的一個錯誤代號(異常終止)。
 3 exit_signal被置為-1時表示是某個線程組中的一員。只有當線程組的最后一個成員終止時,才會產生一個信號,以通知線程組的領頭進程的父進程。*/
 4 int pdeath_signal;  /*  The signal sent when the parent dies  */  
 5 /*  pdeath_signal用於判斷父進程終止時發送信號。 */  
 6 unsigned int personality;   // personality用於處理不同的ABI
 7 unsigned did_exec:1;  // did_exec用於記錄進程代碼是否被execve()函數所執行。
 8 unsigned in_execve:1;   /* Tell the LSMs that the process is doing an    * execve */   
 9 // in_execve用於通知LSM是否被do_execve()函數所調用。
10 unsigned in_iowait:1;  // in_iowait用於判斷是否進行iowait計數。
11 /* Revert to default priority/policy when forking */  
12 unsigned sched_reset_on_fork:1;  // sched_reset_on_fork用於判斷是否恢復默認的優先級或調度策略。
13 // personality用於處理不同的ABI,它的可能取值如下:
14 enum {  
15     PER_LINUX =     0x0000,  
16     PER_LINUX_32BIT =   0x0000 | ADDR_LIMIT_32BIT,  
17     PER_LINUX_FDPIC =   0x0000 | FDPIC_FUNCPTRS,  
18     PER_SVR4 =      0x0001 | STICKY_TIMEOUTS | MMAP_PAGE_ZERO,  
19     PER_SVR3 =      0x0002 | STICKY_TIMEOUTS | SHORT_INODE,  
20     PER_SCOSVR3 =       0x0003 | STICKY_TIMEOUTS |  
21                      WHOLE_SECONDS | SHORT_INODE,  
22     PER_OSR5 =      0x0003 | STICKY_TIMEOUTS | WHOLE_SECONDS,  
23     PER_WYSEV386 =      0x0004 | STICKY_TIMEOUTS | SHORT_INODE,  
24     PER_ISCR4 =     0x0005 | STICKY_TIMEOUTS,  
25     PER_BSD =       0x0006,  
26     PER_SUNOS =     0x0006 | STICKY_TIMEOUTS,  
27     PER_XENIX =     0x0007 | STICKY_TIMEOUTS | SHORT_INODE,  
28     PER_LINUX32 =       0x0008,  
29     PER_LINUX32_3GB =   0x0008 | ADDR_LIMIT_3GB,  
30     PER_IRIX32 =        0x0009 | STICKY_TIMEOUTS,/* IRIX5 32-bit */  
31     PER_IRIXN32 =       0x000a | STICKY_TIMEOUTS,/* IRIX6 new 32-bit */  
32     PER_IRIX64 =        0x000b | STICKY_TIMEOUTS,/* IRIX6 64-bit */  
33     PER_RISCOS =        0x000c,  
34     PER_SOLARIS =       0x000d | STICKY_TIMEOUTS,  
35     PER_UW7 =       0x000e | STICKY_TIMEOUTS | MMAP_PAGE_ZERO,  
36     PER_OSF4 =      0x000f,          /* OSF/1 v4 */  
37     PER_HPUX =      0x0010,  
38     PER_MASK =      0x00ff,  
39 }; 
當一個進程通過exit()結束進程后,會變成一個僵屍進程,
僵屍進程幾乎釋放了其他所有的資源,但PCB沒有釋放,其中PCB中的這個字段就是記錄退出的退出碼。
10、時間
 1 cputime_t utime, stime, utimescaled, stimescaled;  /* utime/stime用於記錄進程在用戶態/內核態下所經過的節拍數(定時器)。 utimescaled/stimescaled也是用於記錄進程在用戶態/內核態的運行時間,但它們以處理器的頻率為刻度。*/
 2     cputime_t gtime;  // gtime是以節拍計數的虛擬機運行時間(guest time)。
 3 #ifndef CONFIG_VIRT_CPU_ACCOUNTING  
 4     cputime_t prev_utime, prev_stime;  //prev_utime/prev_stime是先前的運行時間
 5 #endif  
 6     unsigned long nvcsw, nivcsw; /* context switch counts */  
 7 /*nvcsw/nivcsw是自願(voluntary)/非自願(involuntary)上下文切換計數。*/
 8     struct timespec start_time;         /* monotonic time */  
 9     struct timespec real_start_time;    /* boot based time */  
10 /*start_time和real_start_time都是進程創建時間,real_start_time還包含了進程睡眠時間,常用於/proc/pid/stat*/
11     struct task_cputime cputime_expires;  //cputime_expires用來統計進程或進程組被跟蹤的處理器時間,其中的三個成員對應着cpu_timers[3]的三個鏈表。
12     struct list_head cpu_timers[3];  
13 #ifdef CONFIG_DETECT_HUNG_TASK  
14 /* hung task detection */  
15     unsigned long last_switch_count;  //last_switch_count是nvcsw和nivcsw的總和。
16 #endif 

11、進程地址空間

1  struct mm_struct *mm, *active_mm;  
2 /* mm指向進程所擁有的內存描述符,而active_mm指向進程運行時所使用的內存描述符。對於普通進程而言,這兩個指針變量的值相同。但是,內核線程不擁有任何內存描述符,所以它們的mm成員總是為NULL。當內核線程得以運行時,它的active_mm成員被初始化為前一個運行進程的active_mm值。*/
3 #ifdef CONFIG_COMPAT_BRK  
4     unsigned brk_randomized:1;  // brk_randomized 用來確定對隨機堆內存的探測。
5 #endif  
6 #if defined(SPLIT_RSS_COUNTING)  
7     struct task_rss_stat    rss_stat;  // rss_stat用來記錄緩沖信息。 
8 #endif  

12、信號處理

 1 /* signal handlers */  
 2     struct signal_struct *signal; //signal指向進程的信號描述符。
 3     struct sighand_struct *sighand;  sighand指向進程的信號處理程序描述符。
 4     sigset_t blocked, real_blocked;  //blocked表示被阻塞信號的掩碼,real_blocked表示臨時掩碼。
 5     sigset_t saved_sigmask; /* restored if set_restore_sigmask() was used */  
 6     struct sigpending pending;  //pending存放私有掛起信號的數據結構。
 7     unsigned long sas_ss_sp;  //sas_ss_sp是信號處理程序備用堆棧的地址,sas_ss_size表示堆棧的大小。
 8     size_t sas_ss_size;  
 9     int (*notifier)(void *priv);  
10     void *notifier_data;  
11     sigset_t *notifier_mask;  
12 /*設備驅動程序常用notifier指向的函數來阻塞進程的某些信號(notifier_mask是這些信號的位掩碼),notifier_data指的是notifier所指向的函數可能使用的數據。*/

13、其他

  1 /* Protection of (de-)allocation: mm, files, fs, tty, keyrings, mems_allowed, 
  2  * mempolicy */  
  3     spinlock_t alloc_lock; //用於保護資源分配或釋放的自旋鎖
  4 
  5 atomic_t usage;            //進程描述符使用計數,被置為2時,表示進程描述符正在被使用而且其相應的進程處於活動狀態。 
  6 
  7 int lock_depth;     /* BKL lock depth  用於表示獲取大內核鎖的次數,如果進程未獲得過鎖,則置為-1。*/ 
  8 
  9 #ifdef CONFIG_SMP  
 10 #ifdef __ARCH_WANT_UNLOCKED_CTXSW  
 11     int oncpu;  //在SMP上幫助實現無加鎖的進程切換(unlocked context switches) 
 12 #endif  
 13 #endif
 14 
 15   #ifdef CONFIG_PREEMPT_NOTIFIERS  
 16     /* list of struct preempt_notifier: */  
 17     struct hlist_head preempt_notifiers;  //preempt_notifier結構體鏈表
 18 #endif  
 19 
 20 unsigned char fpu_counter;  //FPU使用計數
 21 
 22 #ifdef CONFIG_BLK_DEV_IO_TRACE  
 23     unsigned int btrace_seq;  //blktrace是一個針對Linux內核中塊設備I/O層的跟蹤工具。 
 24 #endif 
 25 
 26 #ifdef CONFIG_PREEMPT_RCU  
 27     int rcu_read_lock_nesting;  
 28     char rcu_read_unlock_special;  
 29     struct list_head rcu_node_entry;  
 30 #endif /* #ifdef CONFIG_PREEMPT_RCU */  
 31 #ifdef CONFIG_TREE_PREEMPT_RCU  
 32     struct rcu_node *rcu_blocked_node;  
 33 #endif /* #ifdef CONFIG_TREE_PREEMPT_RCU */  
 34 #ifdef CONFIG_RCU_BOOST  
 35     struct rt_mutex *rcu_boost_mutex;  
 36 #endif /* #ifdef CONFIG_RCU_BOOST */ 
 37 //RCU同步原語 
 38 
 39 #if defined(CONFIG_SCHEDSTATS) || defined(CONFIG_TASK_DELAY_ACCT)  
 40     struct sched_info sched_info;  //用於調度器統計進程的運行信息 
 41 #endif 
 42 
 43 struct list_head tasks; // 用於構建進程鏈表 
 44 
 45 #ifdef CONFIG_SMP  
 46     struct plist_node pushable_tasks;  //to limit pushing to one attempt 
 47 #endif 
 48 
 49 #ifdef CONFIG_CC_STACKPROTECTOR  
 50     /* Canary value for the -fstack-protector gcc feature */  
 51     unsigned long stack_canary;  // 在GCC編譯內核時,需要加上-fstack-protector選項。
 52 #endif 
 53 
 54 /* PID/PID hash table linkage. */  
 55 struct pid_link pids[PIDTYPE_MAX];  //PID散列表和鏈表 
 56 struct list_head thread_group; //線程組中所有進程的鏈表  
 57 
 58 struct completion *vfork_done;      /* for vfork() */   //do_fork函數 
 59 int __user *set_child_tid;      /* CLONE_CHILD_SETTID */  
 60 int __user *clear_child_tid;        /* CLONE_CHILD_CLEARTID */  
 61 /*在執行do_fork()時,如果給定特別標志,則vfork_done會指向一個特殊地址. 如果copy_process函數的clone_flags參數的值被置為CLONE_CHILD_SETTID或CLONE_CHILD_CLEARTID,則會把child_tidptr參數的值分別復制到set_child_tid和clear_child_tid成員。這些標志說明必須改變子進程用戶態地址空間的child_tidptr所指向的變量的值。*/
 62 
 63 /* mm fault and swap info: this can arguably be seen as either mm-specific or thread-specific */  
 64     unsigned long min_flt, maj_flt;//缺頁統計 
 65 
 66 const struct cred __rcu *real_cred; /* objective and real subjective task 
 67                  * credentials (COW) */  
 68 const struct cred __rcu *cred;  /* effective (overridable) subjective task 
 69                  * credentials (COW) */  
 70 struct cred *replacement_session_keyring;  
 71  /* for KEYCTL_SESSION_TO_PARENT */  
 72 //const struct cred __rcu *real_cred; /* objective and real subjective task 
 73                  * credentials (COW) */  
 74 const struct cred __rcu *cred;  /* effective (overridable) subjective task 
 75                  * credentials (COW) */  
 76 struct cred *replacement_session_keyring; /* for KEYCTL_SESSION_TO_PARENT */  
 77 const struct cred __rcu *real_cred; /* objective and real subjective task 
 78                  * credentials (COW) */  
 79 const struct cred __rcu *cred;  /* effective (overridable) subjective task 
 80                  * credentials (COW) */  
 81 struct cred *replacement_session_keyring; /* for KEYCTL_SESSION_TO_PARENT */  
 82 進程權能 
 83 
 84 char comm[TASK_COMM_LEN]; //相應的程序名
 85 
 86 /* file system info */  
 87     int link_count, total_link_count;  
 88 /* filesystem information */  
 89     struct fs_struct *fs;  //fs用來表示進程與文件系統的聯系,包括當前目錄和根目錄。
 90 /* open file information */  
 91     struct files_struct *files;  //files表示進程當前打開的文件。
 92 //文件 
 93 
 94 #ifdef CONFIG_SYSVIPC  
 95 /* ipc stuff */  
 96     struct sysv_sem sysvsem;    進程通信(SYSVIPC)
 97 #endif  
 98 
 99 /* CPU-specific state of this task */  
100     struct thread_struct thread;//處理器特有數據
101 
102 /* namespaces */  
103     struct nsproxy *nsproxy;  //命名空間
104 
105 /* namespaces */  
106     struct nsproxy *nsproxy; //命名空間 
107 
108 struct audit_context *audit_context;  
109 #ifdef CONFIG_AUDITSYSCALL  
110     uid_t loginuid;  
111     unsigned int sessionid;  
112 #endif  
113 //進程審計 
114 
115 seccomp_t seccomp;  //secure computing 
116 
117 /* Thread group tracking */  
118     u32 parent_exec_id;  
119     u32 self_exec_id;  
120 //用於copy_process函數使用CLONE_PARENT 標記時 
121 
122 //中斷
123 #ifdef CONFIG_GENERIC_HARDIRQS  
124     /* IRQ handler threads */  
125     struct irqaction *irqaction;  
126 #endif  
127 #ifdef CONFIG_TRACE_IRQFLAGS  
128     unsigned int irq_events;  
129     unsigned long hardirq_enable_ip;  
130     unsigned long hardirq_disable_ip;  
131     unsigned int hardirq_enable_event;  
132     unsigned int hardirq_disable_event;  
133     int hardirqs_enabled;  
134     int hardirq_context;  
135     unsigned long softirq_disable_ip;  
136     unsigned long softirq_enable_ip;  
137     unsigned int softirq_disable_event;  
138     unsigned int softirq_enable_event;  
139     int softirqs_enabled;  
140     int softirq_context;  
141 #endif 
142 
143 /* Protection of the PI data structures: */  
144 raw_spinlock_t pi_lock; //task_rq_lock函數所使用的鎖 
145 
146 //基於PI協議的等待互斥鎖,其中PI指的是priority inheritance(優先級繼承)
147 #ifdef CONFIG_RT_MUTEXES  
148     /* PI waiters blocked on a rt_mutex held by this task */  
149     struct plist_head pi_waiters;  
150     /* Deadlock detection and priority inheritance handling */  
151     struct rt_mutex_waiter *pi_blocked_on;  
152 #endif  
153 
154 #ifdef CONFIG_DEBUG_MUTEXES  
155     /* mutex deadlock detection */  
156     struct mutex_waiter *blocked_on;    //死鎖檢測
157 #endif 
158 
159 //lockdep,參見內核說明文檔linux-2.6.38.8/Documentation/lockdep-design.txt 
160 #ifdef CONFIG_LOCKDEP  
161 # define MAX_LOCK_DEPTH 48UL  
162     u64 curr_chain_key;  
163     int lockdep_depth;  
164     unsigned int lockdep_recursion;  
165     struct held_lock held_locks[MAX_LOCK_DEPTH];  
166     gfp_t lockdep_reclaim_gfp;  
167 #endif  
168 
169 /* journalling filesystem info */  
170     void *journal_info; //JFS文件系統 
171 
172 /* stacked block device info */  
173     struct bio_list *bio_list; //塊設備鏈表
174 
175 struct reclaim_state *reclaim_state; //內存回收
176 
177 struct backing_dev_info *backing_dev_info;  //存放塊設備I/O數據流量信息
178 
179 struct io_context *io_context; //I/O調度器所使用的信息
180 
181 //記錄進程的I/O計數
182 struct task_io_accounting ioac;  
183 if defined(CONFIG_TASK_XACCT)  
184 u64 acct_rss_mem1;  /* accumulated rss usage */  
185 u64 acct_vm_mem1;   /* accumulated virtual memory usage */  
186 cputime_t acct_timexpd; /* stime + utime since last update */  
187 endif 
188 
189 //CPUSET功能 
190 #ifdef CONFIG_CPUSETS  
191     nodemask_t mems_allowed;    /* Protected by alloc_lock */  
192     int mems_allowed_change_disable;  
193     int cpuset_mem_spread_rotor;  
194     int cpuset_slab_spread_rotor;  
195 #endif 
196 
197 //Control Groups 
198 #ifdef CONFIG_CGROUPS  
199     /* Control Group info protected by css_set_lock */  
200     struct css_set __rcu *cgroups;  
201     /* cg_list protected by css_set_lock and tsk->alloc_lock */  
202     struct list_head cg_list;  
203 #endif  
204 #ifdef CONFIG_CGROUP_MEM_RES_CTLR /* memcg uses this to do batch job */  
205     struct memcg_batch_info {  
206         int do_batch;   /* incremented when batch uncharge started */  
207         struct mem_cgroup *memcg; /* target memcg of uncharge */  
208         unsigned long bytes;        /* uncharged usage */  
209         unsigned long memsw_bytes; /* uncharged mem+swap usage */  
210     } memcg_batch;  
211 #endif  
212 
213 //futex同步機制
214 #ifdef CONFIG_FUTEX  
215     struct robust_list_head __user *robust_list;  
216 #ifdef CONFIG_COMPAT  
217     struct compat_robust_list_head __user *compat_robust_list;  
218 #endif  
219     struct list_head pi_state_list;  
220     struct futex_pi_state *pi_state_cache;  
221 #endif  
222 
223  //非一致內存訪問(NUMA  Non-Uniform Memory Access)
224 #ifdef CONFIG_NUMA  
225     struct mempolicy *mempolicy;    /* Protected by alloc_lock */  
226     short il_next;  
227 #endif  
228 
229 atomic_t fs_excl;   /* holding fs exclusive resources */ //文件系統互斥資源
230 
231 struct rcu_head rcu; //RCU鏈表 
232 
233 struct pipe_inode_info *splice_pipe; //管道 
234 
235 #ifdef  CONFIG_TASK_DELAY_ACCT  
236     struct task_delay_info *delays;   //延遲計數 
237 #endif 
238 
239 #ifdef CONFIG_FAULT_INJECTION  
240     int make_it_fail;  //fault injection
241 #endif  
242 
243 struct prop_local_single dirties;  //FLoating proportions
244 
245 #ifdef CONFIG_LATENCYTOP  
246     int latency_record_count;  
247     struct latency_record latency_record[LT_SAVECOUNT];  
248 #endif   //Infrastructure for displayinglatency 
249 
250 unsigned long timer_slack_ns;  
251 unsigned long default_timer_slack_ns;
252 //time slack values,常用於poll和select函數 
253 
254 struct list_head    *scm_work_list; //socket控制消息(control message)
255 
256 //ftrace跟蹤器 
257 #ifdef CONFIG_FUNCTION_GRAPH_TRACER  
258     /* Index of current stored address in ret_stack */  
259     int curr_ret_stack;  
260     /* Stack of return addresses for return function tracing */  
261     struct ftrace_ret_stack *ret_stack;  
262     /* time stamp for last schedule */  
263     unsigned long long ftrace_timestamp;  
264     /* 
265      * Number of functions that haven't been traced 
266      * because of depth overrun. 
267      */  
268     atomic_t trace_overrun;  
269     /* Pause for the tracing */  
270     atomic_t tracing_graph_pause;  
271 #endif  
272 #ifdef CONFIG_TRACING  
273     /* state flags for use by tracers */  
274     unsigned long trace;  
275     /* bitmask of trace recursion */  
276     unsigned long trace_recursion;  
277 #endif /* CONFIG_TRACING */

本文參考http://blog.csdn.net/npy_lp/article/details/7335187




免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM