在計算機視覺與人工智能領域,頂級會議比SCI更重要(內容轉)


很多領域,SCI是王道,尤其在中國,在教師科研職稱評審和學生畢業條件中都對SCI極為重視,而會議則充當了補充者的身份。但是在計算機領域,尤其是人工智能機器學習領域里,往往研究者們更加青睞於會議

    我無意否認SCI期刊的價值,但是在機器學習、計算機視覺和人工智能領域,頂級會議才是王道。有人會質疑這些會議都只是EI索引的。是的,這的確非常特殊:在許多其它領域,會議都是盛會,比如society of neuroscience的會議,每次都有上萬人參加,帶個abstract和poster就可以去。但在所討論的幾個領域,頂級會議的重要性無論怎么強調都不為過。 

    可以從以下幾點說明:(1)因為機器學習、計算機視覺和人工智能領域發展非常迅速,新的工作層出不窮,如果把論文投到期刊上,一兩年后刊出時就有點out了。因此大部分最新的工作都首先發表在頂級會議上,這些頂級會議完全能反映“熱門研究方向”、“最新方法”。(2)很多經典工作大家可能引的是某頂級期刊上的論文,這是因為期刊論文表述得比較完整、實驗充分。但實際上很多都是在頂級會議上首發。比如PLSA, Latent Dirichlet Allocation等。(3)如果注意這些領域大牛的pulications,不難發現他們很非常看重這些頂級會議,很多人是80%的會議+20%的期刊。即然大牛們把最新工作發在頂級會議上,有什么理由不去讀頂級會議? 

(1)以下是不完整的列表,但基本覆蓋。 

機器學習頂級會議:NIPS, ICML, UAI, AISTATS;  (期刊:JMLR, ML, Trends in ML, IEEE T-NN) 

計算機視覺和圖像識別:ICCV, CVPR, ECCV;  (期刊:IEEE T-PAMI, IJCV, IEEE T-IP) 

人工智能:IJCAI, AAAI; (期刊AI) 

另外相關的還有SIGRAPH, KDD, ACL, SIGIR, WWW等。 

特別是,如果做機器學習,必須地,把近4年的NIPS, ICML翻幾遍;如果做計算機視覺,要把近4年的ICCV, CVPR, NIPS, ICML翻幾遍。 

(2)另外補充一下:大部分頂級會議的論文都能從網上免費下載到,如CV方面:http://www.cvpapers.com/index.html; NIPS: http://books.nips.cc/;  JMLR(期刊): http://jmlr.csail.mit.edu/papers/;  COLT和ICML(每年度的官網): http://www.cs.mcgill.ca/~colt2009/proceedings.html。希望這些信息對大家有點幫助。

(3)說些自己的感受。我的研究方向主要是CV與Deep Learning,但統計學習和計算神經科學都有涉及,對Data mining和Natural Language Processing也有一定了解。這些領域,從方法和模型的角度看,統計模型(包括probabilistic graphical model和statistical learning theory)是主流也是非常有影響力的方法。有個非常明顯的趨勢:重要的方法和模型最先在NIPS或ICML出現,然后應用到CV,DM.NLP。雖然具體問題和應用也很重要,但多關注和結合這些方法也很有意義。 

對於這個領域的牛人們,以上全是淺顯的廢話,完全可以無視。歡迎討論。

 

注:

NIPS = Neural Information Processing Systems  https://nips.cc/

ICML = International Conference on Machine Learning https://icml.cc

UAI(AUAI) =Association for Uncertainty in Artifical Intelligence http://www.auai.org/

AISTATS = Artificial Intelligence and Statistics http://www.aistats.org/

JMLR = Journal of Machine Learning Research http://jmlr.org/

IJCAI = International Joint Conference on Artifical Intelligence http://ijcai.org/

AAAI = Association for the Advancement of Aritifical Intelligence http://www.aaai.org/home.html

 

 

原文地址:

http://emuch.net/html/201012/2659795.html

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM