唐詩豈止三百首 四萬餘首君讀否
唐詩豈止三百首 四萬餘首君讀否
名著豈止四五本 百千名著君閱否
史記豈止僅史記 眾多史記君知否
書籍怎可只幾本 萬本書籍君有否
因為喜歡讀書,所以創作了這款軟體,因為創作這款軟體花費時多,無業宅家,所以被認為讀書讀傻了,希望這款軟體對大家有所幫助,夢想群書進入尋常百姓家。也希望大家理解、支援。
目前已新增:幾百部傳世經典、四萬首全唐詩、道藏 等
還有大量的典籍正在整理中
讀者可很方便的自己新增 比如 武俠系列 共同打造書籍您自己的超級書籍庫
一本書,秒秒鐘就可新增完成。
軟體下載地址:
http://pan.baidu.com/s/1pJFaDyN
幾百部古典系列:
http://pan.baidu.com/s/1kTsiocf
二千武俠系列:
http://pan.baidu.com/s/1ntEyNqT //此係列僅為測試所用,請購買正式書籍,或自己處理TXT文件。 資料均取自網路TXT文件 ,如有侵犯 請馬上告知,我將在第一時間刪除之
相關推薦
唐詩豈止三百首 四萬餘首君讀否
唐詩豈止三百首 四萬餘首君讀否 名著豈止四五本 百千名著君閱否 史記豈止僅史記 眾多史記君知否 書籍怎可只幾本 萬本
完成將 toChineseNum, 可以將數字轉換成中文大寫的表示,處理到萬級別,例如 toChineseNum(12345),返回 一萬二千三百四十五
turn nts math while log 處理 [0 floor rip const toChineseNum = (num) => { const unit = [‘‘, ‘十‘, ‘百‘, ‘千‘] const counts = [‘零
第三百二十四節,web爬蟲,scrapy模塊介紹與使用
通訊 通用 系列 python安裝 ide 調度器 功能 自動 優先 第三百二十四節,web爬蟲,scrapy模塊介紹與使用 Scrapy是一個為了爬取網站數據,提取結構性數據而編寫的應用框架。 其可以應用在數據挖掘,信息處理或存儲歷史數據等一系列的程序中。其最初是為了頁面
第三百五十四節,Python分布式爬蟲打造搜索引擎Scrapy精講—數據收集(Stats Collection)
ack 高效 所有 crawl resp spider 方法 啟動 定義 第三百五十四節,Python分布式爬蟲打造搜索引擎Scrapy精講—數據收集(Stats Collection) Scrapy提供了方便的收集數據的機制。數據以key/value方式存儲,值大多是
反轉字元中的母音字母c語言(leetcode簡單篇三百四十五題)
編寫一個函式,以字串作為輸入,反轉該字串中的母音字母。 示例 1: 輸入: “hello” 輸出: “holle” 示例 2: 輸入: “leetcode” 輸出: “leotcede” 使用雙指標遍歷一遍即可 bool checkchar
將張三,李四,王二按照中文首字母排序
package zqd.demo; import java.text.CollationKey; import java.text.Collator; import java.text.Format; import java.text.SimpleDateFormat; i
五層協議及tcp三次握手四次揮手
p地址 電平 揮手 syn 服務端 局域網 dhcp 網絡層 數據 一.五層協議:物理層:傳送數據 通過高低電平傳輸數據數據鏈路層:ethernet 以太網協議 必須有一塊網卡:12位16進制數,前六位位廠商編號,後六位為流水線號 (定位到某一臺機
第三百一十六節,Django框架,中間件
auth ack 路徑 div options pre con csrf col 第三百一十六節,Django框架,中間件 django 中的中間件(middleware),在django中,中間件其實就是一個類,在請求到來和結束後,django會根據自己的規則在合適的時機
第三百三十節,web爬蟲講解2—urllib庫爬蟲—實戰爬取搜狗微信公眾號
文章 odin data 模塊 webapi 頭信息 hone 微信 android 第三百三十節,web爬蟲講解2—urllib庫爬蟲—實戰爬取搜狗微信公眾號 封裝模塊 #!/usr/bin/env python # -*- coding: utf-8 -*- impo
第三百三十三節,web爬蟲講解2—Scrapy框架爬蟲—Scrapy模擬瀏覽器登錄—獲取Scrapy框架Cookies
pid 設置 ade form 需要 span coo decode firefox 第三百三十三節,web爬蟲講解2—Scrapy框架爬蟲—Scrapy模擬瀏覽器登錄 模擬瀏覽器登錄 start_requests()方法,可以返回一個請求給爬蟲的起始網站,這個返回的請求相
第三百三十八節,Python分布式爬蟲打造搜索引擎Scrapy精講—深度優先與廣度優先原理
.com nbsp 網站 color -1 廣度 spa .cn png 第三百三十八節,Python分布式爬蟲打造搜索引擎Scrapy精講—深度優先與廣度優先原理 網站樹形結構 深度優先 是從左到右深度進行爬取的,以深度為準則從左到右的執行 第三百三十
socket的TCP的三次握手/四次揮手
exce 5.2.1 其他 oca clas message trac input 創建 第一次握手:客戶端嘗試連接服務器,向服務器發送syn包(同步序列編號Synchronize Sequence Numbers),syn=j,客戶端進入SYN_SEND狀態等待服務器確
第三百五十三節,Python分布式爬蟲打造搜索引擎Scrapy精講—scrapy的暫停與重啟
ctrl+ 裏的 dir 其中 重啟 requests 引擎 image .cn 第三百五十三節,Python分布式爬蟲打造搜索引擎Scrapy精講—scrapy的暫停與重啟 scrapy的每一個爬蟲,暫停時可以記錄暫停狀態以及爬取了哪些url,重啟時可以從暫停狀態開始
第三百五十五節,Python分布式爬蟲打造搜索引擎Scrapy精講—scrapy信號詳解
第一個 如果 -c stopped lin 支持 idle 資源 spider 第三百五十五節,Python分布式爬蟲打造搜索引擎Scrapy精講—scrapy信號詳解 信號一般使用信號分發器dispatcher.connect(),來設置信號,和信號觸發函數,當捕獲到信號
第三百五十八節,Python分布式爬蟲打造搜索引擎Scrapy精講—將bloomfilter(布隆過濾器)集成到scrapy-redis中
分布式爬蟲 times 操作 加載 ger 目錄 需要 ini space 第三百五十八節,Python分布式爬蟲打造搜索引擎Scrapy精講—將bloomfilter(布隆過濾器)集成到scrapy-redis中,判斷URL是否重復 布隆過濾器(Bloom Filte
第三百六十一節,Python分布式爬蟲打造搜索引擎Scrapy精講—倒排索引
索引原理 文章 根據 file 索引 -i span 需要 style 第三百六十一節,Python分布式爬蟲打造搜索引擎Scrapy精講—倒排索引 倒排索引 倒排索引源於實際應用中需要根據屬性的值來查找記錄。這種索引表中的每一項都包括一個屬性值和具有該屬性值的各記錄的
第三百六十五節,Python分布式爬蟲打造搜索引擎Scrapy精講—elasticsearch(搜索引擎)的查詢
搜索引擎 ack 復合 分布式 內置 分布 在一起 一起 分類 第三百六十五節,Python分布式爬蟲打造搜索引擎Scrapy精講—elasticsearch(搜索引擎)的查詢 elasticsearch(搜索引擎)的查詢 elasticsearch是功能非常強大的搜索
第三百六十八節,Python分布式爬蟲打造搜索引擎Scrapy精講—elasticsearch(搜索引擎)用Django實現搜索的自動補全功能
技術 django 分布 全功能 -s col ron 搜索 創建 第三百六十八節,Python分布式爬蟲打造搜索引擎Scrapy精講—用Django實現搜索的自動補全功能 elasticsearch(搜索引擎)提供了自動補全接口 官方說明:https://www
tcp三次握手 四次揮手 (轉)
分享 cli fcm 是我 chm 2msl 比較 為什麽 需要 轉自: http://blog.csdn.net/whuslei/article/details/6667471 建立TCP需要三次握手才能建立,而斷開連接則需要四次握手。整個過程如下圖所示: 先來看
第三百七十六節,Django+Xadmin打造上線標準的在線教育平臺—創建用戶操作app,在models.py文件生成5張表,用戶咨詢表、課程評論表、用戶收藏表、用戶消息表、用戶學習表
十六 _id 收藏 創建用戶 在線教育 名稱 image images sage 第三百七十六節,Django+Xadmin打造上線標準的在線教育平臺—創建用戶操作app,在models.py文件生成5張表,用戶咨詢表、課程評論表、用戶收藏表、用戶消息表、用戶學習表 創