別人家的程序員是如何使用 Java 進行 Web 抓取的?
Web抓取非常有用,它可以收集信息供多種用途使用,如數據分析、統計、提供第三方信息,還可以給深神經網絡和深度學習提供數據。
Web抓取是什麽?
有一種非常廣泛的誤解,人們似乎把Web抓取和Web爬蟲當成了同一種東西。所以我們先明確這一點。
兩者有個非常顯著的區別:
Web爬蟲,指搜索或“爬”網頁以獲得任意信息的過程。通常是搜索引擎如Google、Yahoo或Bing的功能,以便給我們顯示搜索結果。
Web抓取,指從特定的網站上利用特別定制的自動化軟件手機信息的過程。
註意!
盡管Web抓取本身是從網站獲取信息的合法方式,但如果使用不當,可能會變成非法。
有幾種情況需要特別註意:
Web抓取可以被認為是拒絕服務***:發送太多請求來獲取數據會給服務器帶來太多壓力,從而限制了正常用戶訪問網站的能力。
Web抓取可被惡意使用:抓取軟件的行為很像機器人,一些框架甚至提供能夠自動填寫並提交表單的工具。因此可以被用作自動垃圾發送工具,甚至能***網站。這也是CAPTCHA存在的原因之一。
如果你想開發一個強大的抓取軟件,請務必考慮以上幾點,遵守法律和法規。
Web抓取框架
就像許多現代科技一樣,從網站提取信息這一功能也有多個框架可以選擇。最流行的有JSoup、HTMLUnit和Selenium WebDriver。我們這篇文章討論JSoup。
JSoup
JSoup是個開源項目,提供強大的數據提取API。可以用它來解析給定URL、文件或字符串中的HTML。它還能操縱HTML元素和屬性。
使用JSoup解析字符串
解析字符串是JSoup的最簡單的使用方式。
public class JSoupExample {
public static void main(String[] args) {
String html = "<html><head><title>Website title</title></head><body><p>Sample paragraph number 1 </p><p>Sample paragraph number 2</p></body></html>";Document doc = Jsoup.parse(html);
System.out.println(doc.title());
Elements paragraphs = doc.getElementsByTag("p");
for (Element paragraph : paragraphs) {
System.out.println(paragraph.text());
}
}
這段代碼非常直觀。調用parse()方法可以解析輸入的HTML,將其變成Document對象。調用該對象的方法就能操縱並提取數據。
在上面的例子中,我們首先輸出頁面的標題。然後,我們獲取所有帶有標簽“p”的元素。然後我們依次輸出每個段落的文本。
運行這段代碼,我們可以得到以下輸出:
Website title
Sample paragraph number 1
Sample paragraph number 2
使用JSoup解析URL
解析URL的方法跟解析字符串有點不一樣,但基本原理是相同的:
public class JSoupExample {
public static void main(String[] args) throws IOException {
Document doc = Jsoup.connect("https://www.wikipedia.org").get();
Elements titles = doc.getElementsByClass("other-project");
for (Element title : titles) {
System.out.println(title.text());
}
}
}
要從URL抓取數據,需要調用connect()方法,提供URL作為參數。然後使用get()從連接中獲取HTML。這個例子的輸出為:Commons Freely usable photos & more
Wikivoyage Free travel guide
Wiktionary Free dictionary
Wikibooks Free textbooks
Wikinews Free news source
Wikidata Free knowledge base
Wikiversity Free course materials
Wikiquote Free quote compendium
MediaWiki Free & open wiki application
Wikisource Free library
Wikispecies Free species directory
Meta-Wiki Community coordination & documentation
可以看到,這個程序抓取了所有class為other-project的元素。
這種方法是最常用的,因此我們看一些通過URL進行抓取的其他例子。
抓取指定URL的所有鏈接
public void allLinksInUrl() throws IOException {
Document doc = Jsoup.connect("https://www.wikipedia.org").get();
Elements links = doc.select("a[href]");
for (Element link : links) {
System.out.println("\nlink : " + link.attr("href"));
System.out.println("text : " + link.text());
}
}
運行結果是一個很長的列表:Link : //en.wikipedia.org/
Text : English 5 678 000+ articles
Link : //ja.wikipedia.org/
Text : 日本語 1 112 000+ 記事
Link : //es.wikipedia.org/
Text : Espa?ol 1 430 000+ artículos
Link : //de.wikipedia.org/
Text : Deutsch 2 197 000+ Artikel
Link : //ru.wikipedia.org/
Text : Русский 1 482 000+ статей
Link : //it.wikipedia.org/
Text : Italiano 1 447 000+ voci
Link : //fr.wikipedia.org/
Text : Fran?ais 2 000 000+ articles
Link : //zh.wikipedia.org/
Text : 中文 1 013 000+ 條目
<!--A bunch of other languages -->
Text : Wiktionary Free dictionary
Link : //www.wikibooks.org/
Text : Wikibooks Free textbooks
Link : //www.wikinews.org/
Text : Wikinews Free news source
Link : //www.wikidata.org/
Text : Wikidata Free knowledge base
Link : //www.wikiversity.org/
Text : Wikiversity Free course materials
Link : //www.wikiquote.org/
Text : Wikiquote Free quote compendium
Link : //www.mediawiki.org/
Text : MediaWiki Free & open wiki application
Link : //www.wikisource.org/
Text : Wikisource Free library
Link : //species.wikimedia.org/
Text : Wikispecies Free species directory
Link : //meta.wikimedia.org/
Text : Meta-Wiki Community coordination & documentation
Link : https://creativecommons.org/licenses/by-sa/3.0/
Text : Creative Commons Attribution-ShareAlike License
Link : //meta.wikimedia.org/wiki/Terms_of_Use
Text : Terms of Use
Link : //meta.wikimedia.org/wiki/Privacy_policy
Text : Privacy Policy
與此相似,你還可以得到圖像的數量、元信息、表單參數等一切你能想到的東西,因此經常被用於獲取統計數據。
使用JSoup解析文件
public void parseFile() throws URISyntaxException, IOException {
URL path = ClassLoader.getSystemResource("page.html");
File inputFile = new File(path.toURI());
Document document = Jsoup.parse(inputFile, "UTF-8");
System.out.println(document.title());
//parse document in any way
}
如果要解析文件,就不需要給網站發送請求,因此不用擔心運行程序會給服務器增添太多負擔。盡管這種方法有許多限制,並且數據是靜態的,因而不適合許多任務,但它提供了分析數據的更合法、更無害的方式。
得到的文檔可以用前面說過的任何方式解析。
設置屬性值
除了讀取字符串、URL和文件並獲取數據之外,我們還能修改數據和輸入表單。
例如,在訪問亞馬遜時,點擊左上角的網站標誌,能返回到網站的首頁。
如果想改變這個行為,可以這樣做:
public void setAttributes() throws IOException {
Document doc = Jsoup.connect("https://www.amazon.com").get();
Element element = doc.getElementById("nav-logo");
System.out.println("Element: " + element.outerHtml());
element.children().attr("href", "notamazon.org");
System.out.println("Element with set attribute: " + element.outerHtml());
}
獲取網站標誌的id後,我們可以查看其HTML。還可以訪問它的子元素,並改變其屬性。Element: <div id="nav-logo">
<a href="/ref=nav_logo/135-9898877-2038645" class="nav-logo-link" tabindex="6"> <span class="nav-logo-base nav-sprite">Amazon</span> <span class="nav-logo-ext nav-sprite"></span> <span class="nav-logo-locale nav-sprite"></span> </a>
<a href="/gp/prime/ref=nav_logo_prime_join/135-9898877-2038645" aria-label="" tabindex="7" class="nav-logo-tagline nav-sprite nav-prime-try"> Try Prime </a>
</div>
Element with set attribute: <div id="nav-logo">
<a href="notamazon.org" class="nav-logo-link" tabindex="6"> <span class="nav-logo-base nav-sprite">Amazon</span> <span class="nav-logo-ext nav-sprite"></span> <span class="nav-logo-locale nav-sprite"></span> </a>
<a href="notamazon.org" aria-label="" tabindex="7" class="nav-logo-tagline nav-sprite nav-prime-try"> Try Prime </a>
</div>
默認情況下,兩個<a>子元素都指向了各自的鏈接。將屬性改變為別的值之後,可以看到子元素的href屬性被更新了。
添加或刪除類
除了設置屬性值之外,我們還可以修改前面的例子,給元素添加或刪除類:
public void changePage() throws IOException {
Document doc = Jsoup.connect("https://www.amazon.com").get();
Element element = doc.getElementById("nav-logo");
System.out.println("Original Element: " + element.outerHtml());
<!--Setting attributes -->
element.children().attr("href", "notamazon.org");
System.out.println("Element with set attribute: " + element.outerHtml());
<!--Adding classes -->
element.addClass("someClass");
System.out.println("Element with added class: " + element.outerHtml());
<!--Removing classes -->
element.removeClass("someClass");
System.out.println("Element with removed class: " + element.outerHtml());
}
運行代碼會給我們以下信息:Original Element: <div id="nav-logo">
<a href="/ref=nav_logo/135-1285661-0204513" class="nav-logo-link" tabindex="6"> <span class="nav-logo-base nav-sprite">Amazon</span> <span class="nav-logo-ext nav-sprite"></span> <span class="nav-logo-locale nav-sprite"></span> </a>
<a href="/gp/prime/ref=nav_logo_prime_join/135-1285661-0204513" aria-label="" tabindex="7" class="nav-logo-tagline nav-sprite nav-prime-try"> Try Prime </a>
</div>
Element with set attribute: <div id="nav-logo">
<a href="notamazon.org" class="nav-logo-link" tabindex="6"> <span class="nav-logo-base nav-sprite">Amazon</span> <span class="nav-logo-ext nav-sprite"></span> <span class="nav-logo-locale nav-sprite"></span> </a>
<a href="notamazon.org" aria-label="" tabindex="7" class="nav-logo-tagline nav-sprite nav-prime-try"> Try Prime </a>
</div>
Element with added class: <div id="nav-logo" class="someClass">
<a href="notamazon.org" class="nav-logo-link" tabindex="6"> <span class="nav-logo-base nav-sprite">Amazon</span> <span class="nav-logo-ext nav-sprite"></span> <span class="nav-logo-locale nav-sprite"></span> </a>
<a href="notamazon.org" aria-label="" tabindex="7" class="nav-logo-tagline nav-sprite nav-prime-try"> Try Prime </a>
</div>
Element with removed class: <div id="nav-logo">
<a href="notamazon.org" class="nav-logo-link" tabindex="6"> <span class="nav-logo-base nav-sprite">Amazon</span> <span class="nav-logo-ext nav-sprite"></span> <span class="nav-logo-locale nav-sprite"></span> </a>
<a href="notamazon.org" aria-label="" tabindex="7" class="nav-logo-tagline nav-sprite nav-prime-try"> Try Prime </a>
</div>
可以把新的代碼以.html形式保存到本機,或者通過HTTP請求發送大歐網站上,不過要註意後者可能是非法的。
結論
在許多情況下Web抓取都很有用,但使用時務必要遵守法律。本文介紹了流行的Web抓取框架JSoup,以及使用它解析信息的幾種方式。
這裏是程序員秘密聚集地,各位還在架構師的道路上掙紮的小夥伴們速來。“
加QQ群:611481448(名額有限哦!)
別人家的程序員是如何使用 Java 進行 Web 抓取的?