Linux下監視NVIDIA的GPU使用情況(轉)


在使用TensorFlow跑深度學習的時候,經常出現顯存不足的情況,所以我們希望能夠隨時查看GPU時使用率。如果你是Nvidia的GPU,那么在命令行下,只需要一行命令就可以實現。

1. 顯示當前GPU使用情況

Nvidia自帶了一個nvidia-smi的命令行工具,會顯示顯存使用情況:

nvidia-smi

輸出: 
nvidia-smi

2. 周期性輸出GPU使用情況

但是有時我們希望不僅知道那一固定時刻的GPU使用情況,我們希望一直掌握其動向,此時我們就希望周期性地輸出,比如每 10s 就更新顯示。 這時候就需要用到 watch命令,來周期性地執行nvidia-smi命令了。

了解一下watch的功能:

whatis watch
 watch(1)        - execute a program periodically, showing output fullscreen

作用:周期性執行某一命令,並將輸出顯示。

watch的基本用法是:

watch [options]  command

最常用的參數是 -n, 后面指定是每多少秒來執行一次命令。

監視顯存:我們設置為每 10s 顯示一次顯存的情況:

watch -n 10 nvidia-smi

顯示如下: 
watch -n 10 nvidia-smi

這樣,只要開着這個命令行窗口,就可以每十秒刷新一次,是不是很方便呢? 
如果我們希望來周期性地執行其他命令行操作,那么就可以簡單地更換后面的nvidia-smi即可,So Cool !

 

https://blog.csdn.net/jasonzzj/article/details/52649174


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM