【原創】有利於提高xenomai 實時性的一些配置建議


版權聲明:本文為本文為博主原創文章,轉載請注明出處。如有錯誤,歡迎指正。
@


本文講述一些有利於提高xenomai 實時性配置建議,其中,一些是通用的,一些是針對某個架構的,希望對你有用。

一、影響因素

硬實時操作系統應具備的最重要特性之一是可預測性,系統應該保證滿足所有關鍵時序約束。然而,這取決於一系列因素,這些因素涉及硬件的架構特征、內核中采用的機制和策略,以及用於實現應用程序的編程語言。

1.硬件

硬件方面,第一個影響調度可預測性的是處理器本身。處理器的內部特性是不確定性的第一個原因,例如指令預取、流水線操作、高速緩存存儲器和直接存儲器訪問(DMA)機制。這些特性雖然改善了處理器的平均性能,但它們引入了非確定性因素,這些因素阻止了對最壞情況執行時間(WCET)的精確估計。

高端CPU,如I5、I7實時性不一定有賽揚、atom系列的好,芯片的設計本身定位就是高吞吐量而不是實時性。

其他影響因素有內存、散熱。提升內存頻率可降低內存訪問延時;使用雙通道內存,這兩個內存CPU可分別尋址、讀取數據,從而使內存的帶寬增加一倍,數據存取速度也相應增加一倍(理論上),內存訪問延時得到縮短,進而提升系統的實時性能;處理器散熱設計不好,溫度過高時會引發CPU降頻保護,系統運行頻率降低影響實時性,熱設計應確保在高工作量時的溫度不會引發降頻。

對於X86 CPU,雙通道內存性能是單通道內存的2. 5倍以上;正確的熱設計可使實時性提升1.4倍以上。

2.BISO(X86平台)

BISO需要針對實時系統進行配置。優化的BIOS設置與使用默認BISO設置的實時性能差距高達9倍。

3.軟件

  • 操作系統:調度算法,同步機制,信號量類型,內存管理策略,通信語義和中斷處理。

  • 資源的分配隔離:分配CPU專門對實時任務服務、將多余中斷隔離到非實時任務CPU上,分配CPU專門對實時任務服務可使L1 、L2 Cache只為實時任務服務。

  • 實時任務的設計,良好的軟件設計能更好的發揮實時性能。

  • 其他,虛擬化、GUI等

4. 緩存使用策略與GPU

  • CPU 里的 L1 Cache 或者 L2 Cache,訪問延時是內存的 1/15 乃至 1/100,想要追求極限性能,需要盡可能地多從 CPU Cache 里面拿數據,減少cache miss,上面的分配CPU專門對實時任務服務就是對非共享的L1 、L2 Cache的充分優化。對於L3 Cache,多個cpu核與GPU共享,無法避免非實時任務及GUI爭搶L3 Cache對實時任務的影響。為此intel 推出了資源調配技術(Intel RDT),提供了兩種能力:監控和分配。Intel RDT提供了一系列分配(資源控制)能力,包括緩存分配技術(Cache Allocation Technology, CAT),代碼和數據優先級(Code and Data Prioritization, CDP) 以及 內存帶寬分配(Memory Bandwidth Allocation, MBA)。該技術旨在通過一系列的CPU指令從而允許用戶直接對每個CPU核心(附加了HT技術后為每個邏輯核心)的L2緩存、L3緩存(LLC--Last Level Cache )以及內存帶寬進行監控和分配。

RDT一開始是為解決雲計算的問題,在雲計算領域虛擬化環境中,宿主機的資源(包括CPU cache和內存帶寬)都是共享的。這帶來一個問題就是:如果有一個過度消耗cache的應用耗盡了L3緩存或者大量的內存帶寬,將無法保障其他虛擬機應用的性能。這種問題稱為 noisy neighbor。

同樣對於我們的實時系統也是類似:由於L3 Cache多核共享,如果有一個過度消耗cache的非實時應用耗盡了L3緩存或者大量的內存帶寬,將無法保障xenomai實時應用的性能。

以往虛擬化環境中解決方法是通過控制虛擬機邏輯資源(cgroup)但是調整粒度太粗,並且無法控制處理器緩存這樣敏感而且稀缺的資源。為此Intel推出了RDT技術。在Intel中文網站的 通過英特爾® 資源調配技術優化資源利用視頻形象介紹了RDT的作用。

Intel的Fenghua Yu在Linux Foundation上的演講 Resource Allocation in Intel® Resource Director Technology 可以幫助我們快速了解這項技術。

總的來說,RDT讓我們實現了控制處理器緩存這樣敏感而且稀缺的資源,對我們對xenomai的實時性能提升有很大幫助啊(不僅限於xenomai,RTAI、PREEMPT-RT均適用)。

  • CAT(緩存分配技術,Cache Alocation Technology),對最后一級緩存(L3 Cache)實現分區,用戶可以通過限制每個核心能夠向其中分配緩存行的LLC數量,將LLC的部分分配給特定核心,使用該技術可以提升實時任務Cahe命中率,減少MSI延遲和抖動,進而提升實時性能。(不是所有intel處理器具有該功能,一開始只有服務器CPU提供該支持,據筆者了解,6代以后的CPU基本支持CAT。關於CAT 見github),對於大多數Linux發行版,可直接安裝使用該工具,具體的cache分配策略可根據后面的資源隔離情況進行。
sudo apt-get install  intel-cmt-cat
  • GPU。硬件上GPU與CPU共享L3 Cache ,因此GUI會影響實時任務的實時性。intel建議根據GUI任務的工作負載來固定GPU的運行頻率,且頻率盡可能低。減小GPU對實時任務實時性的影響。

二、優化措施

1. BIOS[x86]

Disable Features Intela Hyper-Threading Technology.
Intel SpeedStep.
Intel Speed Shift Technology
C-States: Gfx RC6.
GT PM Support.
PCH Cross Throttling.
PCI Express* Clock Gating.
Delay Enable DMI ASPM,DMI Link ASPM Control.
PCle *ASPM and SATA Aggressive LPM Support.
(For Skylake and Kaby Lake, also consider disabling Gfx Low Power Mode and USB Periodic SMl in BIOS.)
Enable Features Legacy lO Low Latency
Gfx Frequency Set to fixed value as low as possible according to proper workload
Memory Frequency SA GV Fixed High

2. 硬件

除處理器外,內存方面,使用雙通道內存,盡可能高的內存頻率。

散熱當面,針對處理器工作負載設計良好的散熱結構。

3. Linux

xenomai基於linux,xenomai作為一個小的實時核存在,許多硬件配置是linux 驅動掌管的,必須讓linux配置好,給xenomai提供一個好的硬件環境,讓xenomai充分發揮其RTOS的優勢,主要宗旨:盡可能的不讓linux影響xenomai,無論是軟件還是硬件

3.1 Kernel CMDLINE

cpu隔離

多核情況下將CPU隔離,設置內核參數isolcpus=[cpu列表] ,將列表中的CPU從內核SMP平衡和調度算法中剔除,將剔除的CPU用於RT應用。如4核CPU平台將第3、4核隔離來做RT應用。

CPU編號從"0"開始,列表的表示方法有三種:
numA,numB,...,numN
numA-numN
以及上述兩種表示方法的組合:
numA,...,numM-numN
例如:isolcpus=0,3,4-7表示隔離CPU0、3、4、5、6、7.

GRUB_CMDLINE_LINUX="isolcpus=2,3"

以上只是linux不會調度普通任務到CPU2和3上運行,這是基礎,此時還需要設置xenomai方面的CPU隔離,方法一,任務通過函數pthread_attr_setaffinity_np()設置xenomai任務只在CPU3和4上調度,隔離后的CPU的L1、L2緩存命中率相應的也會得到提高。

cpu_set_t cpus;
CPU_ZERO(&cpus);
CPU_SET(2, &cpus);//將線程限制在指定的cpu2上運行
CPU_SET(3, &cpus);//將線程限制在指定的cpu3上運行
ret = pthread_attr_setaffinity_np(&tattr, sizeof(cpus), &cpus);

方法二,向xenomai設置內核參數supported_cpus,指定xenomai支持的CPU,xenomai任務會自動放到cpu2、cpu3上運行。

xenomai 內核參數supported_cpus與linux不同,supported_cpus是一個16進制數,每bit置位表示支持該CPU,要支持CPU2、CPU3,需要置置位bit2、bit3,即supported_cpus=0x06(00000110b)。

GRUB_CMDLINE_LINUX="isolcpus=2,3 xenomai.supported_cpus=0x06"

注:linux內核參數isolcpus=CPU編號列表是基礎,否則若不隔離linux任務,后面的xenomai設置將沒任何意義。

Full Dynamic Tick

將CPU2、CPU3作為xenomai使用后,由於xenomai調度是完全基於優先級的調度器,並且我們已將linux任務從這兩個cpu上剔除,CPU上Tick也就沒啥用了,避免多余的Tick中斷影響實時任務的運行,需要將這兩個cpu配置為Full Dynamic Tick模式,即關閉tick。通過添加linux內核參數nohz_full=[cpu列表] 配置。

nohz_full=[cpu列表]在使用CONFIG_NO_HZ_FULL = y構建的內核中才生效。

GRUB_CMDLINE_LINUX="isolcpus=2,3 xenomai.supported_cpus=0x06 nohz_full=2,3"

為什么是linux內核參數呢?雙核下時間子系統中分析過,每個CPU的時鍾工作方式是linux初始化並配置工作模式的,xenomai最后只是接管而已,所以這里是通過linux內核參數配置。

注意:boot CPU(通常是0號CPU)會無條件的從列表中剔除。這是一個坑~

start_kerel()
 ->tick_init()
 	->tick_nohz_init()
void __init tick_nohz_init(void)
{
 .......
 cpu = smp_processor_id();
	
	if (cpumask_test_cpu(cpu, tick_nohz_full_mask)) {
		pr_warn("NO_HZ: Clearing %d from nohz_full range for timekeeping\n",
			cpu);
		cpumask_clear_cpu(cpu, tick_nohz_full_mask);
	}
 ......
}
Offload RCU callback

從引導選擇的CPU上卸載RCU回調處理,使用內核線程 “rcuox / N”代替,通過linux內核參數rcu_nocbs=[cpu列表]指定的CPU列表設置。這對於HPC和實時工作負載很有用,這樣可以減少卸載RCU的CPU上操作系統抖動。

"rcuox / N",N表示CPU編號,‘x’:'b'是RCU-bh的b,'p'是RCU-preempt,‘s’是RCU-sched。

rcu_nocbs=[cpu列表]在使用CONFIG_RCU_NOCB_CPU=y構建的內核中才生效。除此之外需要設置RCU內核線程rcuc/nrcub/n線程的SCHED_FIFO優先級值RCU_KTHREAD_PRIO,RCU_KTHREAD_PRIO設置為高於最低優先級線程的優先級,也就是說至少要使該優先級低於xenomai實時應用的優先級,避免xenomai實時應用遷移到linux后,由於優先級低於RCU_KTHREAD的優先級而實時性受到影響,如下配置RCU_KTHREAD_PRIO=0。

General setup  --->
    RCU Subsystem  --->
        (0) Real-time priority to use for RCU worker threads
        [*] Offload RCU callback processing from boot-selected CPUs 
            (X) No build_forced no-CBs CPUs
            ( ) CPU 0 is a build_forced no-CBs CPU
            ( ) All CPUs are build_forced no-CBs CPUs
GRUB_CMDLINE_LINUX="isolcpus=2,3 xenomai.supported_cpus=0x06 nohz_full=2,3 rcu_nocbs=2,3"
中斷隔離

多核情況下,通過內核參數irqaffinity==[cpu列表],設置linux中斷的親和性,設置后,默認由這些cpu核來處理非CPU綁定中斷。避免linux中斷影響cpu2、cpu3上的實時應用,將linux中斷指定到cpu0、cpu1處理。

GRUB_CMDLINE_LINUX="isolcpus=2,3 xenomai.supported_cpus=0x06 nohz_full=2,3 rcu_nocbs=2,3 irqaffinity=0,1"

以上只是設置linux中斷的affinity,只能使運行實時任務的CPU2、cpu3不會收到linux非CPU綁定中斷請求。

要指定cpu來處理xenomai實時設備中斷,需要在實時驅動代碼中通過函數xnintr_affinity()設置,綁定實時驅動中斷由CPU2、CPU3處理代碼如下。

    cpumask_t irq_affinity;
    ...
    cpumask_clear(&irq_affinity);
    cpumask_set_cpu(2, &irq_affinity);
    cpumask_set_cpu(3, &irq_affinity);
    ...
    if (!cpumask_empty(&irq_affinity)){
    	xnintr_affinity(&pIp->irq_handle,irq_affinity);	/*設置實時設備中斷的affinity*/
    }

雖然ipipe會保證xenomai 實時中斷在任何CPU都會優先處理,在實時設備中斷比較少的場合,我覺得把linux中斷與實時中斷分開比較好;如果實時設備中斷數量較多,如果隔離就會造成實時中斷間相互影響中斷處理的實時性,這時候不指定實時中斷處理CPU比較好。

禁用irqbanlance

irqbalance 用於優化中斷分配,它會自動收集系統數據以分析使用模式,並依據系統負載狀況將工作狀態置於 Performance mode 或 Power-save mode。簡單來說irqbalance 會將硬件中斷分配到各個CPU核心上處理。

  • 處於 Performance mode 時,irqbalance 會將中斷盡可能均勻地分發給各個 CPU core,以充分利用 CPU 多核,提升性能。
  • 處於 Power-save mode 時,irqbalance 會將中斷集中分配給第一個 CPU,以保證其它空閑 CPU 的睡眠時間,降低能耗。

禁用irqbanlance,避免不相干中斷發生在RT任務核。發行版不同,配置方式不同,以Ubuntu為例,停止/關閉開機啟動如下。

systemctl stop irqbalance.service
systemctl disable irqbalance.service

必要的話直接卸載irqbalance。

apt-get remove irqbalance

x86平台還可添加參數acpi_irq_nobalance 禁用ACPI irqbalance.

GRUB_CMDLINE_LINUX="isolcpus=2,3 xenomai.supported_cpus=0x06 nohz_full=2,3 rcu_nocbs=2,3 irqaffinity=0,1 acpi_irq_nobalance noirqbalance"
intel 核顯配置[x86]

主要針對intel CPU的核顯,配置intel核顯驅動模塊i915,內核參數如下。

GRUB_CMDLINE_LINUX="i915.enable_rc6=0 i915.enable_dc=0 i915.disable_power_well=0  i915.enable_execlists=0 i915.powersave=0"
nmi_watchdog[x86]

NMI watchdog是Linux的開發者為了debugging而添加的特性,但也能用來檢測和恢復Linux kernel hang,現代多核x86體系都能支持NMI watchdog。

NMI(Non Maskable Interrupt)即不可屏蔽中斷,之所以要使用NMI,是因為NMI watchdog的監視目標是整個內核,而內核可能發生在關中斷同時陷入死循環的錯誤,此時只有NMI能拯救它。

Linux中有兩種NMI watchdog,分別是I/O APIC watchdog(nmi_watchdog=1)和Local APIC watchdog(nmi_watchdog=2)。它們的觸發機制不同,但觸發NMI之后的操作是幾乎一樣的。一旦開啟了I/O APIC watchdog(nmi_watchdog=1),那么每個CPU對應的Local APIC的LINT0線都關聯到NMI,這樣每個CPU將周期性地接到NMI,接到中斷的CPU立即處理NMI,用來悄悄監視系統的運行。如果系統正常,它啥事都不做,僅僅是更改 一些時間計數;如果系統不正常(默認5秒沒有任何普通外部中斷),那它就閑不住了,會立馬跳出來,且中止之前程序的運行。該出手時就出手。

避免周期中斷的NMI watchdog影響xenomai實時性需要關閉NMI watchdog,傳遞內核參數nmi_watchdog=0.

GRUB_CMDLINE_LINUX="isolcpus=2,3 xenomai.supported_cpus=0x06 nohz_full=2,3 rcu_nocbs=2,3 irqaffinity=0,1 acpi_irq_nobalance noirqbalance i915.enable_rc6=0 i915.enable_dc=0 i915.disable_power_well=0  i915.enable_execlists=0 i915.powersave=0 nmi_watchdog=0"
nosoftlockup

linux內核參數,禁用 soft-lockup檢測器。

GRUB_CMDLINE_LINUX="isolcpus=2,3 xenomai.supported_cpus=0x06 nohz_full=2,3 rcu_nocbs=2,3 irqaffinity=0,1 acpi_irq_nobalance noirqbalance i915.enable_rc6=0 i915.enable_dc=0 i915.disable_power_well=0  i915.enable_execlists=0 i915.powersave=0 nmi_watchdog=0 nosoftlockup"
CPU特性[x86]

intel處理器相關內核參數:

  • nosmap
  • nohalt。告訴內核在空閑時,不要使用省電功能PAL_HALT_LIGHT。 這增加了功耗。但它減少了中斷喚醒延遲,這可以提高某些環境下的性能,例如聯網服務器或實時系統。
  • mce=ignore_ce,忽略machine checkerrors (MCE).
  • idle=poll,不要使用HLT在空閑循環中進行節電,而是輪詢以重新安排事件。 這將使CPU消耗更多的功率,但對於在多處理器基准測試中獲得稍微更好的性能可能很有用。 它還使使用性能計數器的某些性能分析更加准確。
  • clocksource=tsc tsc=reliable,指定tsc作為系統clocksource.
  • intel_idle.max_cstate=0 禁用intel_idle並回退到acpi_idle.
  • processor.max_cstate=0 intel.max_cstate=0 processor_idle.max_cstate=0 限制睡眠狀態c-state。
GRUB_CMDLINE_LINUX="isolcpus=2,3 xenomai.supported_cpus=0x06 nohz_full=2,3 rcu_nocbs=2,3 irqaffinity=0,1 acpi_irq_nobalance noirqbalance i915.enable_rc6=0 i915.enable_dc=0 i915.disable_power_well=0  i915.enable_execlists=0  nmi_watchdog=0 nosoftlockup processor.max_cstate=0 intel.max_cstate=0 processor_idle.max_cstate=0     intel_idle.max_cstate=0 clocksource=tsc tsc=reliable nmi_watchdog=0 nosoftlockup intel_pstate=disable idle=poll nohalt nosmap  mce=ignore_ce"

3.2 內核構建配置

系統構建時,除以上提到的配置外(CONFIG_NO_HZ_FULL = y、CONFIG_RCU_NOCB_CPU=y、RCU_KTHREAD_PRIO=0),其他實時性相關配置如下:

CONFIG_MIGRATION=n、CONFIG_MCORE2=y[x86]、CONFIG_PREEMPT=y、ACPI_PROCESSOR =n[x86]、CONFIG_CPU_FREQ =n、CONFIG_CPU_IDLE =n;

經過以上配置后可以使用latency測試,觀察配置前后的變化。關於latency,需要注意的是,測試timer-IRQ的latency時,即用latency -t2命令來測試時,xenomai默認使用cpu0的timer,上面提到boot CPU(通常是0號CPU)會無條件的從nohz_full=[cpu列表]列表中剔除,所以latency -t2測試時你會發現沒什么變化,還可能會變差了(最壞情況差不多一致,平均值變大了),另外我們將linux中斷affinity全都設置為CPU0處理,這些中斷或多或少也會影響timer-IRQ的latency。

2021.5添加-- 最近發現xenomai內核定時器affinity為cpu0的問題已被社區修復。

三、優化結果對比

筆者對以上各個條件配置前后對比過實時性改善效果,均有不同程度的優化效果,大家有興趣也可自行測試。

以下結果基於 i5-7200U 8GB單通道DDR4,64GB emmc5.0,未使用RDT技術。

1-3 在已裁剪桌面下,壓力加了內存。

1. 原始性能測試。

只使用了xenomai,CONFIG_MIGRATION=n、CONFIG_MCORE2=y[x86]、CONFIG_PREEMPT=y、ACPI_PROCESSOR =n[x86]、CONFIG_CPU_FREQ =n、CONFIG_CPU_IDLE =n。

優化項 配置與否
BISO NO
Linux NO
Full Dynamic Tick NO
Offload RCU callback NO
Full desktop NO
stress -c 10 -m 4

2. 優化BIOS設置。

優化項 配置與否
BISO YES
Linux NO
Full Dynamic Tick NO
Offload RCU callback NO
Full desktop NO
stress -c 10 -m 4

3. Linux配置優化。

優化項 配置與否
BISO YES
Linux YES
Full Dynamic Tick YES
Offload RCU callback YES
Full desktop NO
stress -c 10 -m 4


4-6 未添加內存壓力

4. 裁剪桌面。

保留完整Ubuntu桌面前,且經所有配置

優化項 配置與否
BISO YES
Linux YES
Full Dynamic Tick YES
Offload RCU callback YES
Full desktop NO—>YES
stress -c 10

裁剪桌面后:

裁剪前后對比:

5. Full Dynamic Tick啟用前后對比

裁剪桌面后,配置cpu0未啟用Full Dynamic Tick,cpu1啟用Full Dynamic Tick,加壓與未加壓對比。

優化項 配置與否
BISO YES
Linux YES
Full Dynamic Tick CPU0:NO;CPU1:YES
Offload RCU callback CPU0NO;CPU1:NO
Full desktop NO
stress -c 10

對比cpu0與cpu1,最壞情況沒有改善,但4us以上的latency改善明顯。

6.桌面、rcu、tick前后比對

帶桌面、未啟用rcu_nocb、未啟用Full Dynamic Tick-------->裁桌面、啟用rcu_nocb、啟用Full Dynamic Tick;

優化項 配置與否
BISO YES --> YES
Linux YES --> YES
Full Dynamic Tick **NO ** --> YES
Offload RCU callback NO --> YES
Full desktop YES --> NO
stress -c 10

7.總對比

優化項 配置與否
BISO NO --> YES
Linux NO --> YES
Full Dynamic Tick NO --> YES
Offload RCU callback NO --> YES
Full desktop YES --> NO
stress -c 10 -m 4

四、實時性能測試

下面直接給出最終的應用空間任務Jitter測試結果,使用的環境如下:

CPU intel 賽揚 3865U@1.8GHZ
Kernel Linux 4.4.200
操作系統 Ubuntu 16.04
內存 8GB DDR3-1600 雙通道
存儲 64GB EMMC

測試條件:在stress壓力下測試,同時一個QT應用程序繪制2維曲線圖,QT CPU占用率99%。

stress -c 10 -m 4

測試時間:211:04:55
測試命令:

latency -t0 -p 100 -P 99 -h -g result.txt 

測試應用空間程序,優先級99,任務周期100us,測試結果輸出到文件result.txt。經過接近10天的測試后,文件result.txt中latency分布結果如下:

# 211:04:55 (periodic user-mode task, 100 us period, priority 99)
# ----lat min|----lat avg|----lat max|-overrun|---msw|
#       0.343|      1.078|     23.110|       0|     0|
# Xenomai version: Xenomai/cobalt v3.1
# Linux 4.4.200-xeno 
......
# I-pipe releagese #20 detected
# Cobalt core 3.1 detected
# Compiler: gcc version 5.4.0 20160609 (Ubuntu 5.4.0-6ubuntu1~16.04.12) 
# Build args: --enable-smp --enable-pshared --enable-tls 
PKG_CONFIG_PATH=:/usr/xenomai/lib/pkgconfig:/usr/xenomai/lib/pkgconfig0 1
0.5 1599357037
1.5 1621130106
2.5 56618753
3.5 4386985
4.5 3848531
5.5 3556704
6.5 3353649
7.5 3033218
8.5 2560133
9.5 2035075
10.5 1516866
11.5 1038989
12.5 680815
13.5 417124
14.5 224296
15.5 115165
16.5 58075
17.5 27669
18.5 11648
19.5 4648
20.5 1646
21.5 467
22.5 38
23.5 1

其中第一列數據表示latency的值,第二列表示該值與上一個值之間這個范圍的latency出現的次數,最小0.343us,平均latency 1.078us,最大23.110us。可見xenomai的實時性還是挺不錯的。
以上只是xenomai應用空間任務的實時性表現,如果使用內核空間任務會更好。當然這只能說明操作系統能提供的實時性能,具體的還要看應用程序的設計等。
此外,該測試基於X86平台,X86處理器的實時性與BIOS有很大關系,通常BIOS配置CPU具有更高的吞吐量,例如超線程、電源管理、CPU頻率等,畢竟BIOS不是普通開發者能接觸到的,如果能讓BIOS對CPU針對實時系統配置的話,實時性會更好。如下圖所示,平均抖動幾乎在100納秒以內。

相關鏈接

https://www.intel.com/content/dam/www/public/us/en/documents/white-papers/cache-allocation-technology-white-paper.pdf


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM