1. 程式人生 > 實用技巧 >強強聯合!Papers with Code攜手arXiv,上傳論文、提交程式碼一步到位

強強聯合!Papers with Code攜手arXiv,上傳論文、提交程式碼一步到位

公眾號關注 “ML_NLP”

設為 “星標”,重磅乾貨,第一時間送達!

作者:魔王,來源:機器之心

剛剛,機器學習資源網站 Papers with Code 宣佈與論文預印本平臺 arXiv 進行合作,論文作者在 arXiv 上上傳論文時可以同步上傳官方和社群程式碼,這或許有助於解決論文可復現性問題。

機器學習資源網站 Papers with Code 自創立以來,憑藉豐富的開放資源和卓越的社群服務,成為機器學習研究者最常用的資源網站之一。2019 年底,Papers with Code 正式併入 Facebook AI。最近,它又有了新舉措:與論文預印本平臺 arXiv 展開合作,支援在 arXiv 頁面上新增程式碼連結。

現在,arXiv 上機器學習論文摘要頁面的下方出現了一個 Code 按鈕,它可以連結論文相關的官方和社群程式碼實現:

arXiv 論文頁面新增的 Code 部分(Papers with Code 提供支援)。

可提供官方程式碼和社群程式碼。

如何使用?

論文作者登入 arXiv 網站,點選 Papers with Code 圖示即可新增官方程式碼(參見下圖箭頭)。然後,頁面轉向 Papers with Code 網站,作者可以在那裡新增程式碼。官方程式碼實現新增完成後,arXiv 論文摘要頁面將出現官方程式碼(official code)部分。

Papers With Code 聯合創始人 Robert Stojnic 表示:

Papers With Code 的宗旨是通過使使用者更輕鬆地獲取、使用和擴充套件各項研究,來促進科技進步。與 arXiv 的此次合作可以幫助研究人員和從業者更輕鬆地基於最新機器學習研究進行復用和擴充套件。

Papers With Code 希望這一舉措可以對機器學習以外更廣泛的計算科學帶來連鎖反應。科學是逐漸累積的。開放科學,包括公佈原始碼,有助於加速科學的進步。

全球最大的預印本系統 + 機器學習研究者最常用的資源網站 = ?

當越來越多的人在上傳論文到 arXiv 時順手附上程式碼實現,提交程式碼是否會演變成為社群規範?這將帶來什麼影響?

不管最終如何,arXiv 和 Papers With Code 的合作首先有助於解決研究的可復現性問題。

有網友表示:「當這成為規範,提交程式碼將成為在電腦科學期刊上發表文章的軟要求,如果期刊還存在的話……」

無獨有偶,還有人設想,要是再加些新的功能(比如 Q&A 論壇、讀者評論),說不定期刊的時代真的可以結束了:

可復現性是科學領域長期關注的話題,近期人工智慧和機器學習社群也對此投入了更多關注。例如 ICML、ICLR 和 NeurIPS 這些頂級學術會議都在努力推進將實驗程式碼和資料作為評審材料的一部分提交,並鼓勵作者在評審或出版過程中提交程式碼以幫助結果可復現。

在此背景下,Papers with Code 與 arXiv 的合作將對可復現性研究帶來有益的影響。當提交程式碼成為規範,當可復現性難題得到解決,開放科學還會遠嗎?

下載1:動手學深度學習

在機器學習演算法與自然語言處理公眾號後臺回覆“動手學”,
即可獲取547頁《動手學深度學習》電子書和原始碼。
本書同時覆蓋深度學習的方法和實踐,
不僅從數學的角度闡述深度學習的技術和應用,
還包含可執行的程式碼,
為讀者展示如何在實際中解決問題。

在這裡插入圖片描述

下載2:倉庫地址共享
在機器學習演算法與自然語言處理公眾號後臺回覆“程式碼”,
即可獲取195篇NAACL+295篇ACL2019有程式碼開源的論文。開源地址如下:https://github.com/yizhen20133868/NLP-Conferences-Code

倉庫地址共享:
在機器學習演算法與自然語言處理公眾號後臺回覆“程式碼”,
即可獲取195篇NAACL+295篇ACL2019有程式碼開源的論文。
開源地址如下: https://github.com/yizhen20133868/NLP-Conferences-Code
重磅!機器學習演算法與自然語言處理交流群已正式成立
群內有大量資源,歡迎大家進群學習!
額外贈送福利資源!邱錫鵬深度學習與神經網路,pytorch官方中文教程,利用Python進行資料分析,機器學習學習筆記,pandas官方文件中文版,effective java(中文版)等20項福利資源

Alt

注意:請大家新增時修改備註為 [學校/公司 + 姓名 + 方向]

例如 —— 哈工大+張三+對話系統。

號主,微商請自覺繞道。謝謝!

在這裡插入圖片描述

Alt

推薦閱讀:
Longformer:超越RoBERTa,為長文件而生的預訓練模型
一文直觀理解KL散度
機器學習必讀TOP 100論文清單:高引用、分類全、覆蓋面廣丨GitHub 21.4k星

在這裡插入圖片描述