機器學習(Machine Learning)大家與資源
內容挺多的,轉過來吧
=======================國外====================
Machine Learning 大家(1):M. I. Jordan (http://www.cs.berkeley.edu/~jordan/)
在我的眼裡,M Jordan無疑是武林中的泰山北斗。他師出MIT,現在在berkeley坐鎮一方
,在附近的兩所名校(加stanford)中都可以說無出其右者,stanford的Daphne Koller雖
然也聲名遐邇,但是和Jordan比還是有一段距離。
Jordan身兼stat和cs兩個系的教授,從他身上可以看出Stat和ML的融合。
Jordan最先專注於mixtures of experts,並迅速奠定了自己的地位,我們哈爾濱工業大
學的校友徐雷跟他做博後期間,也在這個方向上沾光不少。Jordan和他的弟子在很多方面作
出了開創性的成果,如spectral clustering, Graphical model和nonparametric Bayesi
an。現在後兩者在ML領域是非常炙手可熱的兩個方向,可以說很大程度上是Jordan的lab一
手推動的。
更難能可貴的是,Jordan不僅自己武藝高強,並且攬錢有法,教育有方,手下門徒眾多
且很多人成了大器,隱然成為江湖大幫派。他的弟子中有10多人任教授,個人認為他現在的
弟子中最出色的是stanford的Andrew Ng,不過由於資歷原因,現在還是assistant profes
sor,不過成為大教授指日可待;另外Tommi Jaakkola和David Blei也非常厲害,其中Tomm
i Jaakkola在mit任教而David Blei在cmu做博後,數次獲得NIPS最佳論文獎,把SVM的最大
間隔方法和Markov network的structure結構結合起來,赫赫有名。還有一個博後是來自於
toronto的Yee Whye Teh,非常不錯,有幸跟他打過幾次交道,人非常nice。另外還有一個
博後居然在做生物資訊方面的東西,看來jordan在這方面也撈了錢。這方面他有一箇中國學
生Eric P. Xing(清華大學校友),現在在cmu做assistant professor。
總的說來,我覺得Jordan現在做的主要還是graphical model和Bayesian learning,他
去年寫了一本關於graphical model的書,今年由mit press出版,應該是這個領域裡程碑式
的著作。3月份曾經有人答應給我一本列印本看看,因為Jordan不讓他傳播電子版,但後來
好像沒放在心上(可見美國人也不是很守信的),人不熟我也不好意思問著要,可以說是一
大遺憾. 另外發現一個有趣的現象就是Jordan對hierarchical情有獨鍾,相當多的文章都是
關於hierarchical的,所以能hierarchical大家趕快hierarchical,否則就讓他給搶了。
用我朋友話說看jordan牛不牛,看他主頁下面的Past students and postdocs就知道了
。
Machine Learning大家(2):D. Koller (http://ai.stanford.edu/~koller/)
D. Koller是1999年美國青年科學家總統獎(PECASE)得主,IJCAI 2001 Computers and
Thought Award(IJCAI計算機與思維獎,這是國際人工智慧界35歲以下青年學者的最高獎)得
主,2004 World Technology Award得主。
最先知道D koller是因為她得了一個大獎,2001年IJCAI計算機與思維獎。Koller因她在
概率推理的理論和實踐、機器學習、計算博弈論等領域的重要貢獻,成為繼Terry Winogra
d、David Marr、Tom Mitchell、Rodney Brooks等人之後的第18位獲獎者。說起這個獎挺有
意思的,IJCAI終身成就獎(IJCAI Award for Research Excellence),是國際人工智慧界
的最高榮譽; IJCAI計算機與思維獎是國際人工智慧界35歲以下青年學者的最高榮譽。早期
AI研究將推理置於至高無上的地位; 但是1991年牛人Rodney Brooks對推理全面否定,指出
機器只能獨立學習而得到了IJCAI計算機與思維獎; 但是koller卻因提出了Probabilistic
Relational Models 而證明機器可以推理論知而又得到了這個獎,可見世事無絕對,科學有
輪迴。
D koller的Probabilistic Relational Models在nips和icml等各種牛會上活躍了相當長
的一段時間,並且至少在實驗室裡證明了它在資訊搜尋上的價值,這也導致了她的很多學生
進入了google。雖然進入google可能沒有在牛校當faculty名聲響亮,但要知道google的很
多員工現在可都是百萬富翁,在全美大肆買房買車的主。
Koller的研究主要都集中在probabilistic graphical model,如Bayesian網路,但這玩
意我沒有接觸過,我只看過幾篇他們的markov network的文章,但看了也就看了,一點想法
都沒有,這灘水有點深,不是我這種非科班出身的能趟的,並且感覺難以應用到我現在這個
領域中。
Koller才從教10年,所以學生還沒有湧現出太多的牛人,這也是她不能跟Jordan比擬的
地方,並且由於在stanford的關係,很多學生直接去矽谷賺大錢去了,而沒有在學術界開江
湖大幫派的影響,但在stanford這可能太難以辦到,因為金錢的誘惑實在太大了。不過Kol
ler的一個學生我非常崇拜,叫Ben Taskar,就是我在(1)中所提到的Jordan的博後,是好
幾個牛會的最佳論文獎,他把SVM的最大間隔方法和Markov network結合起來,可以說是對
structure data處理的一種標準工具,也把最大間隔方法帶入了一個新的熱潮,近幾年很多
牛會都有這樣的workshop。 我最開始上Ben Taskar的在stanford的個人網頁時,正趕上他
剛畢業,他的頂上有這麼一句話:流言變成了現實,我終於畢業了! 可見Koller是很變態
的,把自己的學生關得這麼鬱悶,這恐怕也是大多數女faculty的通病吧,並且估計還非常
的push!
Machine learning 大家(3): J. D. Lafferty
大家都知道NIPS和ICML向來都是由大大小小的山頭所割據,而John Lafferty無疑是裡面
相當高的一座高山,這一點可從他的publication list裡的NIPS和ICML數目得到明證。雖然
江湖傳說計算機重鎮CMU現在在走向衰落,但這無礙Lafferty擁有越來越大的影響力,翻開
AI兵器譜排名第一的journal of machine learning research的很多文章,我們都能發現a
uthor或者editor中赫然有Lafferty的名字。
Lafferty給人留下的最大的印象似乎是他2001年的conditional random fields,這篇文
章後來被瘋狂引用,廣泛地應用在語言和影象處理,並隨之出現了很多的變體,如Kumar的
discriminative random fields等。雖然大家都知道discriminative learning好,但很久
沒有找到好的discriminative方法去處理這些具有豐富的contextual inxxxxation的資料,
直到Lafferty的出現。
而現在Lafferty做的東西好像很雜,semi-supervised learning, kernel learning,
graphical models甚至manifold learning都有涉及,可能就是像武俠裡一樣只要學會了九
陽神功,那麼其它的武功就可以一窺而知其精髓了。這裡面我最喜歡的是semi-supervise
d learning,因為隨著要處理的資料越來越多,進行全部label過於困難,而完全unsuperv
ised的方法又讓人不太放心,在這種情況下semi-supervised learning就成了最好的。這
沒有一個比較清晰的認識,不過這也給了江湖後輩成名的可乘之機。到現在為止,我覺得c
mu的semi-supervised是做得最好的,以前是KAMAL NIGAM做了開創性的工作,而現在Laff
erty和他的弟子作出了很多總結和創新。
Lafferty的弟子好像不是很多,並且好像都不是很有名。不過今年畢業了一箇中國人,
Xiaojin Zhu(上海交通大學校友),就是做semi-supervised的那個人,現在在wisconsin-
madison做assistant professor。他做了迄今為止最全面的Semi-supervised learning li
terature survey, 大家可以從他的個人主頁中找到。這人看著很憨厚,估計是很好的陶瓷
物件。另外我在(1)中所說的Jordan的牛弟子D Blei今年也投奔Lafferty做博後,就足見
Lafferty的牛了。
Lafferty做NLP是很好的,著名的Link Grammar Parser還有很多別的應用。其中langua
ge model在IR中應用,這方面他的另一箇中國學生ChengXiang Zhai(南京大學校友,2004年
美國青年科學家總統獎(PECASE)得主),現在在uiuc做assistant professor。
Machine learning 大家(4): Peter L. Bartlett
鄙人淺薄之見,Jordan比起同在berkeley的Peter Bartlett還是要差一個層次。Bartle
tt主要的成就都是在learning theory方面,也就是ML最本質的東西。他的幾篇開創性理論
分析的論文,當然還有他的書Neural Network Learning: Theoretical Foundations。
UC Berkeley的統計系在強手如林的北美高校中一直是top3, 這就足以證明其肯定是群
星薈萃,而其中,Peter L. Bartlett是相當亮的一顆星。關於他的研究,我想可以從他的
一本書裡得到答案:Neural Network Learning: Theoretical Foundations。也就是說,他
主要做的是Theoretical Foundations。基礎理論雖然沒有一些直接可面向應用的演算法那樣
引人注目,但對科學的發展實際上起著更大的作用。試想vapnik要不是在VC維的理論上辛苦
了這麼多年,怎麼可能有SVM的問世。不過陽春白雪固是高雅,但大多數人只能聽懂下里巴
人,所以Bartlett的文章大多隻能在做理論的那個圈子裡產生影響,而不能為大多數人所廣
泛引用。
Bartlett在最近兩年做了大量的Large margin classifiers方面的工作,如其converge
nce rate和generalization bound等。並且很多是與jordan合作,足見兩人的工作有很多相
通之處。不過我發現Bartlett的大多數文章都是自己為第一作者,估計是在教育上存在問題
吧,沒帶出特別牛的學生出來。
Bartlett的個人主頁的talk裡有很多值得一看的slides,如Large Margin Classifiers:
Convexity and Classification;Large Margin Methods for Structured Classificati
on: Exponentiated Gradient Algorithms。大家有興趣的話可以去下來看看。
Machine learning 大家(5): Michael Collins
Michael Collins (http://people.csail.mit.edu/mcollins/
自然語言處理(NLP)江湖的第一高人。出身Upenn,靠一身叫做Collins Parser的武功在江湖
上展露頭腳。當然除了資質好之外,其出身也幫了不少忙。早年一個叫做Mitchell P. Mar
cus的師傅傳授了他一本葵花寶典-Penn Treebank。從此,Collins整日沉迷於此,終於練成
蓋世神功。
學成之後,Collins告別師傅開始闖蕩江湖,投入了一個叫AT&T Labs Research的幫會,
並有幸結識了Robert Schapire、Yoram Singer等眾多高手。大家不要小瞧這個叫AT&T Lab
s Research的幫會,如果誰沒有聽過它的大名總該知道它的同父異母的兄弟Bell Labs吧。
言歸正傳,話說Collins在這裡度過了3年快樂的時光。其間也奠定了其NLP江湖老大的地
位。並且練就了Discriminative Reranking, Convolution Kernels,Discriminative Tr
aining Methods for Hidden Markov Models等多種絕技。然而,世事難料,怎奈由於幫會
經營不善,這幫大牛又不會為幫會拼殺,終於被一腳踢開,大家如鳥獸散了。Schapire去了
Princeton, Singer 也回老家以色列了。Collins來到了MIT,成為了武林第一大幫的六袋
長老,並教授一門叫做Machine Learning Approaches for NLP (http://www.ai.mit.edu/
courses/6.891-nlp/) 的功夫。雖然這一地位與其功力極不相符,但是這並沒有打消Colli
ns的積極性,通過其刻苦打拼,終於得到了一個叫Sloan Research Fellow的頭銜,並於今
年7月,光榮的升任7袋Associate Professor。
在其下山短短7年時間內,Collins共獲得了4次世界級武道大會冠軍(EMNLP2002, 2004,
UAI2004, 2005)。相信年輕的他,總有一天會一統丐幫,甚至整個江湖。
看過Collins和別人合作的一篇文章,用conditional random fields 做object recogn
tion。還這麼年輕,admire to death!
=======================國內====================
之前自己一直想總結一下國內搞機器學習和資料探勘的大牛,但是自己太懶了。所以沒搞...
最近看到了下面轉載的這篇博文,感覺總結的比較全面了。
個人認為,但從整體研究實力來說,機器學習和資料探勘方向國內最強的地方還是在MSRA,
那邊的相關研究小組太多,很多方向都能和資料探勘扯上邊。這裡我再補充幾個相關研究方向
的年輕老師和學者吧。
蔡登:http://www.cad.zju.edu.cn/home/dengcai/,Han Jiawei老師的學生,博士畢業後回浙大
任教,也算是國內年輕一代的牛人了。
萬小軍:https://sites.google.com/site/wanxiaojun1979/,得翻牆才能看到主頁。主要
研究方向是文字挖掘和語義計算。自然語言方向好會議發了很多文章。
張磊:http://research.microsoft.com/en-us/um/people/leizhang/
-----------------------------------------------------------------------------------------------
原文地址:http://blog.csdn.net/playoffs/article/details/7588597
李航:http://research.microsoft.com/en- us/people/hangli/,是MSRA Web Search and
Mining Group高階研究員和主管,主要研究領域是資訊檢索,自然語言處理和統計學習。
近年來,主要與人合作使用機器學習方法對資訊檢索中排序,相關性等問題的 研究。曾在
人大聽過一場他的講座,對實際應用的問題抽象,轉化和解決能力值得學習。
周志華:http://cs.nju.edu.cn/zhouzh/,是南京大學的傑青,機器學習和資料探勘方面
國內的領軍人物,其好幾個研究生都 進入了美國一流高校如uiuc,cmu等學習和深造。周教授
在半監督學習,multi-label學習和整合學習方面在國際上有一定的影響力。另外,他也
是ACML的創始人。人也很nice,曾經發郵件諮詢過一個naive的問題,周老師還在百忙之中
回覆了我,並對我如何發郵件給了些許建議。
楊強:http://www.cse.ust.hk/~qyang/,香港科技大學教 授,也是KDD 2012的會議主席,
可見功力非同一般。楊教授是遷移學習的國際領軍人物,曾經的中國第一位acm全球冠軍上
交的戴文淵碩士期間就是跟他合作發表了一系列 高水平的文章。還有,楊教授曾有一個關
於機器學習和資料探勘有意思的比喻:比如你訓練一隻狗,若干年後,如果它忽然有一天能
幫你擦鞋洗衣服,那麼這就是數 據挖掘;要是忽然有一天,你發現狗發裝成一個老太婆
消失了,那麼這就是機器學習。
李建中:http://db.hit.edu.cn/jianzhongli/,哈工大和黑大共有教授,是分散式資料庫
的領軍人物。近年來,其團隊 在不確定性資料,sensor network方面也發表了一系列有名
文章。李教授為人師表,教書育人都做得了最好,在圈內是讓人稱道的好老師和好學者。
唐傑:http://keg.cs.tsinghua.edu.cn/jietang/,清華大學副教授,是圖挖掘方面的專家。
他主持設計和實現的Arnetminer是國內領先的圖挖掘系統,該系統也是多個會議的支援商。
張鈸:http://www.csai.tsinghua.edu.cn/personal_homepage/zhang_bo/index.html 清華
大學教授,中科院院士,。現任清華大學資訊科技研究院指導委員會主任,微軟亞洲研究院
技術顧問等。主要從事人工智慧、神經網路、遺傳演算法、智慧機器 人、模式識別以及智慧控
制等領域的研究工作。在過去二十多年中,張鈸教授系統地提出了問題求解的商空間理
論。近年來,他建立了神經與認知計算研究中心以及多媒體資訊處理研究組。該研究組已在
影象和視訊的分析與檢索方面取得一些重要研究成果。
劉鐵巖:http://research.microsoft.com/en-us/people/tyliu/ MSRA研究主管,
是learning to rank的國際知名學者。近年逐步轉向管理,研究興趣則開始關注計算廣告學方面。
王海峰:http://ir.hit.edu.cn/~wanghaifeng/ 資訊檢索,自然語言處理,機器翻譯方面
的專家,ACL的副主席,百度高階科學家。近年,在百度主持研發了百度翻譯產品。
何曉飛:http://people.cs.uchicago.edu/~xiaofei/ 浙江大學教授,多媒體處理,
影象檢索以及流型學習的國際領先學者。
朱軍:http://www.ml-thu.net/~jun/ 清華大學副教授,機器學習絕對重量級新星。
主要研究領域是latent variable models, large-margin learning, Bayesian nonparametrics,
and sparse learning in high dimensions. 他也是今年龍星計劃的機器學習領域的主講人之一。
----------------------------------------------------------------------------------------------
吳軍:http://www.cs.jhu.edu/~junwu/ 騰訊副總裁,前google研究員。
著名《數學之美》和《浪潮之巔》系列的作者。
張棟:http://weibo.com/machinelearning 前百度科學家和google研究員,機器學習工業界的代表人物之一。
戴文淵:http://apex.sjtu.edu.cn/apex_wiki/Wenyuan_Dai 現百度鳳巢ctr預估組leader。
前ACM大賽冠軍,碩士期間一系列transfer learning方面的高水平論文讓人瞠目結舌。
======================資源====================
以前轉過一個計算機視覺領域內的牛人簡介,現在轉一個更寬範圍內的牛人簡介:
http://people.cs.uchicago.edu/~niyogi/
http://www.cs.uchicago.edu/people/
http://pages.cs.wisc.edu/~jerryzhu/
http://www.kyb.tuebingen.mpg.de/~chapelle
http://people.cs.uchicago.edu/~xiaofei/
http://www.cs.uiuc.edu/homes/dengcai2/
http://research.microsoft.com/~denzho/
http://www-users.cs.umn.edu/~kumar/dmbook/index.php#item5
(resources for the book of the introduction of data mining by Pang-ning Tan et.al. )(國內已經有相應的中文版)
http://www.cs.toronto.edu/~roweis/lle/publications.html (lle演算法原始碼及其相關論文)
http://dataclustering.cse.msu.edu/index.html#software(data clustering)
http://www.cs.toronto.edu/~roweis/ (裡面有好多資源)
http://www.cse.msu.edu/~lawhiu/ (manifold learning)
http://www.math.umn.edu/~wittman/mani/ (manifold learning demo in matlab)
http://www.iipl.fudan.edu.cn/~zhangjp/literatures/MLF/INDEX.HTM (manifold learning in matlab)
http://videolectures.net/mlss05us_belkin_sslmm/ (semi supervised learning with manifold method by Belkin)
http://isomap.stanford.edu/ (isomap主頁)
http://web.mit.edu/cocosci/josh.html MIT TENENBAUM J B主頁
http://web.engr.oregonstate.edu/~tgd/ (國際著名的人工智慧專家 Thomas G. Dietterich)
http://www.cs.berkeley.edu/~jordan/ (MIchael I.Jordan)
http://www.cs.cmu.edu/~awm/ (Andrew W. Moore's homepage)
http://learning.cs.toronto.edu/ (加拿大多倫多大學機器學習小組)
http://www.cs.cmu.edu/~tom/ (Tom Mitchell,裡面有與教材匹配的slide。)
Kernel Methods |
|
Maximum Mean Discrepancy (MMD), Hilbert-Schmidt Independence Criterion (HSIC) Kernel PCA Pre-Image, Kernel Learning, Core Vector Machine(CVM) Kernel Learning, Linear Discriminate Analysis, Dimension Deduction |
|
Multi-Task Learning |
|
Multi-Task Feature Learning Multi-Task Feature Learning, Multi-Task Kernel Learning Multi-Task Feature Learning Multi-Task Feature Learning, Multi-Task Kernel Learning
|
|
Semi-supervised Learning |
|
Partha NiyogiManifold Regularization, Laplacian Eigenmaps Mikhail BelkinManifold Regularization, Laplacian Eigenmaps Vikas SindhwaniManifold Regularization Xiaojin ZhuGraph-based Semi-supervised Learning |
|
Multiple Instance Learning |
|
EM-DD, DD-SVM, Multiple Instance Semi Supervised Learning(MISS) |
|
Dimensionality Reduction |
|
Neil LawrenceGaussian Process Latent Variable Models (GPLVM) Lawrence K. SaulMaximum Variance Unfolding(MVU), Semidefinite Embedding(SDE) |
|
Machine Learning |
|
Graphical Models Diffusion Kernels, Graphical Models Logic, Probability Zhang TongTheoretical Analysis of Statistical Algorithms, Multi-task Learning, Graph-based Semi-supervised Learning Zoubin GhahramaniBayesian approaches to machine learning Machine Learning @ Toronto |
|
Statitiscal Machine Learning & Optimization |
|
GLasso, Statistical view of AdaBoost, Greedy Function Approximation Lasso Convex Optimization Libsvm |
http://www.dice.ucl.ac.be/mlg/
半監督流形學習(流形正則化)
http://manifold.cs.uchicago.edu/
模式識別和神經網路工具箱
http://www.ncrg.aston.ac.uk/netlab/index.php
機器學習開原始碼
http://mloss.org/software/tags/large-scale-learning/
統計學開原始碼
matlab各種工具箱連結
http://www.tech.plym.ac.uk/spmc/links/matlab/matlab_toolbox.html
統計學學習經典線上教材
機器學習開源原始碼
http://mloss.org/software/language/matlab/
======================會議====================
我知道的幾個人工智慧會議(一流)下面同分的按字母序排列:
IJCAI (1+): AI最好的綜合性會議, 1969年開始, 每兩年開一次, 奇數年開. 因為AI 實在太大, 所以雖然每屆基本上能錄100多篇(現在已經到200多篇了),但分到每個領域就沒幾篇了,象machine learning、computer vision這麼大的領域每次大概也就10篇左右, 所以難度很大. 不過從錄用率上來看倒不太低,基本上20%左右, 因為內 行人都會掂掂分量, 沒希望的就別浪費reviewer的時間了. 最近中國大陸投往國際會議的文章象潮水一樣, 而且因為國內很少有能自己把關的研究組, 所以很多會議都在complain說中國的低質量文章嚴重妨礙了PC的工作效率. 在這種情況下, 估計這幾年國際會議的錄用率都會降下去. 另外, 以前的IJCAI是沒有poster的, 03年開始, 為了減少被誤殺的好人, 增加了2頁紙的poster.值得一提的是, IJCAI是由貌似一個公司"IJCAI Inc."主辦的(當然實際上並不是公司, 實際上是個基金會), 每次會議上要 發幾個獎, 其中最重要的兩個是IJCAI Research Excellence Award 和 Computer& Thoughts Award, 前者是終身成就獎, 每次一個人, 基本上是AI的最高獎(有趣的是, 以AI為主業拿圖靈獎的6位中, 有2位還沒得到這個獎), 後者是獎給35歲以下的青年科學家, 每次一個人. 這兩個獎的獲獎演說是每次IJCAI的一個重頭戲.另外,IJCAI 的 PC member 相當於其他會議的area chair, 權力很大, 因為是由PC member 去找 reviewer 來審, 而不象一般會議的PC member其實就是 reviewer. 為了制約這種權力, IJCAI的審稿程式是每篇文章分配2位PC member, primary PC member去找3位reviewer, second PC member 找一位.
AAAI (1): 美國人工智慧學會AAAI的年會. 是一個很好的會議, 但其檔次不穩定, 可以給到1+, 也可以給到1-或者2+, 總的來說我給它"1". 這是因為它的開法完全受IJCAI制約: 每年開, 但如果這一年的IJCAI在北美舉行, 那麼就停開. 所以, 偶數年裡因為沒有IJCAI, 它就是最好的AI綜合性會議, 但因為號召力畢竟比IJCAI要小一些,特別是歐洲人捧AAAI場的比IJCAI少得多(其實亞洲人也是), 所以比IJCAI還是要稍弱一點, 基本上在1和1+之間; 在奇數年, 如果IJCAI不在北美, AAAI自然就變成了比IJCAI低一級的會議(1-或2+), 例如2005年既有IJCAI又有AAAI, 兩個會議就進行了協調, 使得IJCAI的錄用通知時間比AAAI的deadline早那麼幾天, 這樣IJCAI落選的文章可以投往AAAI.在審稿時IJCAI 的 PC chair也在一直催, 說大家一定要快, 因為AAAI那邊一直在擔心IJCAI的錄用通知出晚了AAAI就麻煩了.
COLT (1): 這是計算學習理論最好的會議, ACM主辦, 每年舉行. 計算學習理論基本上可以看成理論電腦科學和機器學習的交叉, 所以這個會被一些人看成是理論電腦科學的會而不是AI的會. 我一個朋友用一句話對它進行了精彩的刻畫: "一小群數學家在開會". 因為COLT的領域比較小, 所以每年會議基本上都是那些人. 這裡順便提一件有趣的事, 因為最近國內搞的會議太多太濫, 而且很多會議都是LNCS/LNAI出論文集, LNCS/LNAI基本上已經被搞臭了, 但很不幸的是, LNCS/LNAI中有一些很好的會議, 例如COLT.
CVPR (1): 計算機視覺和模式識別方面最好的會議之一, IEEE主辦, 每年舉行. 雖然題目上有計算機視覺, 但個人認為它的模式識別味道更重一些. 事實上它應該是模式識別最好的會議, 而在計算機視覺方面, 還有ICCV與之相當. IEEE一直有個傾向, 要把會辦成"盛會", 歷史上已經有些會被它從quality很好的會辦成"盛會"了. CVPR搞不好也要走這條路. 這幾年錄的文章已經不少了. 最近負責CVPR會議的TC的chair發信說, 對這個community來說, 讓好人被誤殺比被壞人漏網更糟糕, 所以我們是不是要減少好人被誤殺的機會啊? 所以我估計明年或者後年的CVPR就要擴招了.
ICCV (1): 介紹CVPR的時候說過了, 計算機視覺方面最好的會之一. IEEE主辦. ICCV逢奇數年開,開會地點以往是北美,歐洲和亞洲輪流,本來2003年定在北京,後來因Sars和原定05年的法國換了一下。ICCV'07年將首次在南美(巴西)舉行.
CVPR原則上每年在北美開, 如果那年正好ICCV在北美,則該年沒有CVPR.
ICML (1): 機器學習方面最好的會議之一. 現在是IMLS主辦, 每年舉行. 參見關於NIPS的介紹.
NIPS (1): 神經計算方面最好的會議之一, NIPS主辦, 每年舉行. 值得注意的是, 這個會每年的舉辦地都是一樣的, 以前是美國丹佛, 現在是加拿大溫哥華; 而且它是年底開會, 會開完後第2年才出論文集, 也就是說, NIPS'05的論文集是06年出. 會議的名字是"Advances in Neural Inxxxxation Processing Systems", 所以, 與ICMLECML這樣的"標準的"機器學習會議不同, NIPS裡有相當一部分神經科學的內容, 和機器學習有一定的距離. 但由於會議的主體內容是機器學習, 或者說與機器學習關係緊密, 所以不少人把NIPS看成是機器學習方面最好的會議之一. 這個會議基本上控制在MichaelJordan的徒子徒孫手中, 所以對Jordan系的人來說, 發NIPS並不是難事, 一些未必很強的工作也能發上去, 但對這個圈子之外的人來說, 想發一篇實在很難, 因為留給"外人"的口子很小. 所以對Jordan系以外的人來說, 發NIPS的難度比ICML更大. 換句話說,ICML比較開放, 小圈子的影響不象NIPS那麼大, 所以北美和歐洲人都認, 而NIPS則有些人(特別是一些歐洲人, 包括一些大家)堅決不投稿. 這對會議本身當然並不是好事,但因為Jordan系很強大, 所以它似乎也不太care. 最近IMLS(國際機器學習學會)改選理事, 有資格提名的人包括近三年在ICMLECMLCOLT發過文章的人, NIPS則被排除在外了. 無論如何, 這是一個非常好的會.
ACL (1-): 計算語言學/自然語言處理方面最好的會議, ACL (Association of
Computational Linguistics) 主辦, 每年開.
KR (1-): 知識表示和推理方面最好的會議之一, 實際上也是傳統AI(即基於邏輯的AI)最好的會議之一. KR Inc.主辦, 現在是偶數年開.
SIGIR (1-): 資訊檢索方面最好的會議, ACM主辦, 每年開. 這個會現在小圈子氣越來越重. 資訊檢索應該不算AI, 不過因為這裡面用到機器學習越來越多, 最近幾年甚至有點機器學習應用會議的味道了, 所以把它也列進來.
SIGKDD (1-): 資料探勘方面最好的會議, ACM主辦, 每年開. 這個會議歷史比較短,畢竟, 與其他領域相比,資料探勘還只是個小弟弟甚至小侄兒. 在幾年前還很難把它列在tier-1裡面, 一方面是名聲遠不及其他的top conference響亮, 另一方面是相對容易被錄用. 但現在它被列在tier-1應該是毫無疑問的事情了. 這幾年來KDD的質量都很高. SIGKDD從2000年來full paper的錄取率都在10%-12%之間,遠遠低於IJCAI和ICML.
經常聽人說,KDD要比IJICAI和ICML都要困難。IJICAI才6頁,而KDD要10頁。沒有紮實系統的工作,很難不留下漏洞。有不少IJICAI的常客也每年都投KDD,可難得幾個能經常中。
UAI (1-): 名字叫"人工智慧中的不確定性", 涉及表示推理學習等很多方面, AUAI(Association of UAI) 主辦, 每年開.
我知道的幾個人工智慧會議(二三流)
(原創為lilybbs.us上的daniel)
純屬個人看法, 僅供參考. tier-1的列得較全, tier-2的不太全, tier-3的很不全.
同分的按字母序排列. 不很嚴謹地說, tier-1是可以令人羨慕的, tier-2是可以令人尊敬的,由於AI的相關會議非常多, 所以能列進tier-3的也是不錯的.
tier 2: tier-2的會議列得不全, 我熟悉的領域比較全一些.
AAMAS (2+): agent方面最好的會議. 但是現在agent已經是一個一般性的概念,
幾乎所有AI有關的會議上都有這方面的內容, 所以AAMAS下降的趨勢非常明顯.
ECCV (2+): 計算機視覺方面僅次於ICCV的會議, 因為這個領域發展很快, 有可能升級到1-去.
ECML (2+): 機器學習方面僅次於ICML的會議, 歐洲人極力捧場, 一些人認為它已經是1-了. 我保守一點, 仍然把它放在2+. 因為機器學習發展很快, 這個會議