本文是使用NVIDIA原生管理工具查詢NVIDIA顯卡使用情況的一些記錄(使用遠程管理工具的效率沒有使用原生管理接口nvml的效率高,有效率需求者建議使用python版本捆綁的nvml庫,具體:https://www.cnblogs.com/devilmaycry812839668/p/15565447.html)
nvidia-smi --query-gpu=timestamp,pstate,temperature.gpu,utilization.gpu,utilization.memory,memory.total,memory.free,memory.used --format=csv | tee gpu-log.csv
不打印列的title:
nvidia-smi --query-gpu=timestamp,pstate,temperature.gpu,utilization.gpu,utilization.memory,memory.total,memory.free,memory.used --format=csv,noheader | tee gpu-log.csv
不打印列的title和單位:
nvidia-smi --query-gpu=timestamp,pstate,temperature.gpu,utilization.gpu,utilization.memory,memory.total,memory.free,memory.used --format=csv,noheader,nounits | tee gpu-log.csv
不打印單位:
nvidia-smi --query-gpu=timestamp,pstate,temperature.gpu,utilization.gpu,utilization.memory,memory.total,memory.free,memory.used --format=csv,nounits | tee gpu-log.csv
查詢GPU上現在運行的程序:
nvidia-smi --query-compute-apps=timestamp,gpu_serial,gpu_bus_id,gpu_name,pid,name --format=csv
概覽:
nvidia-smi
=====================================================