1. 程式人生 > >erlang拉取時時彩資料

erlang拉取時時彩資料

以前的一個需求,獲取時時彩開獎資料作為第三方驗證,用於遊戲中的抽獎功能。做一個記錄。
1、百度和網易時時彩都做了採集,最後用的網易(百度彩票網站關了T_T)。
2、用erlang自帶的httpc,直接拉網易時時彩的url獲取資料。
3、解析資料。
主要程式碼

httpc:request(get,{"http://caipiao.163.com/award/getAwardNumberInfo.html?gameEn=ssc&periodNum=1",[]},[{timeout,5000}],[{sync,true}])
{ok, {{_, 200, _}, _, Result1}} ->
            Result
= zlib:gunzip(Result1), [{_,Ls}|_] = mochijson2:decode(Result, [{format,proplist}]), Ls2 = lists:flatten(Ls), %% 資料已取到 %% proplists:get_value(<<"period">>, Ls2) 彩票開獎期號,比如(2018033001=第一期)

後記
有幾個問題要注意的是:1、會不會被禁。2、網站變動導致問題。

相關推薦

erlang時時資料

以前的一個需求,獲取時時彩開獎資料作為第三方驗證,用於遊戲中的抽獎功能。做一個記錄。 1、百度和網易時時彩都做了採集,最後用的網易(百度彩票網站關了T_T)。 2、用erlang自帶的httpc,直接拉網易時時彩的url獲取資料。 3、解析資料。 主要程

【原始碼追蹤】SparkStreaming 中用 Direct 方式每次從 Kafka 多少條資料(offset值範圍)

我們知道 SparkStreaming 用 Direct 的方式拉取 Kafka 資料時,是根據 kafka 中的 fromOffsets 和 untilOffsets 來進行獲取資料的,而 fromOffsets 一般都是需要我們自己管理的,而每批次的 untilOffsets 是由

第一次git的使用(和提交資料

從程式碼倉庫克隆專案到本地 左邊是兩種方式:加密或者不加密(看個人需求選擇) 右邊是對應的倉庫地址連結 克隆到本地來:$ git clone 上面所提到的倉庫地址連結 對本地倉庫進行操作(在你所克隆到的本地目錄中且要從你本地目錄再進入你克隆下來的本地倉庫裡) 這裡我最開

Hive 如何快速大批量資料

  用hive來做數倉類操作,或者大資料的運算,是沒有疑問的,至少在你沒有更多選擇之前。   當我們要hive來做類似於大批量資料的select時,也許問題就會發生了變化。   1. 通用解決方案之分頁   首先,我們要基於一個事實,就是沒有哪個資料庫可以無限制的提供我們select任意資料量的資料

新版×××票源碼+帶時時龍虎和同時下註+×××

linux 簡單 linux下 機器碼 字符串 取代 type 希望 strip 新版拉×××票源碼+帶時時彩龍虎和同時下註+××× 下載地址 QQ2952777280arm交叉編譯器的常用工具集簡介  本人新手,想記錄一下自己學習的過程筆記,希望有朋友可以一起學習指正

專案總結:每隔5分鐘從資料庫資料轉為Json格式通過WebService從客戶端傳送至服務端

   第一次接手需求寫的小專案,過程也有點坎坷,以此記錄總結編碼過程中遇到的問題。    專案背景:本次寫的是一個小模組,主要為客戶端,作用是每隔5分鐘從資料庫拉取資料傳送至服務端。本次專案採用的是spring3+Quartz+JdbcTemplate+J

intelliJ IDEA SVN資料並配置tomcat

  我們建立空專案實際上是專案空間 進入主介面 想用svn必須先啟用它 選擇Subversion 拉取 svn專案 你會發現這裡檢測不到目錄 我們進入

Centos6.5 Mysql5.7 多主一從 (多臺主機上資料 合併到同一臺數據庫)

我也是多文件參考,摸著石頭過河,花了不少時間,不過最終是配置成功(在配置的時候如果遇到錯誤,請自己找度娘解決) 以下是轉過來的部分做了修改:尊重原創,原創無價 #### 解決思路: 1、主資料庫使用Innodb引擎,並設定sql_mode為 NO_AUTO_CREATE_USER 2、從

spark streaming 中 direct 直連方式從kafka中怎麼資料

我們知道 SparkStreaming 用 Direct 的方式拉取 Kafka 資料時,是根據 kafka 中的 fromOffsets 和 untilOffsets 來進行獲取資料的,而 fromOffsets 一般都是需要我們自己管理的,而每批次的 untilOffse

pysparkkafka資料

1.建立kafka的topic: ./kafka-topics.sh --create --zookeeper xxxx:2181,xxxx:2181 --replication-factor 3 --partitions 3 --topic test 2.pyspark

資料安全治理中重慶時時開發的BI分析資料安全管控技術

BI軟體是重慶時時彩開發  dsluntan.com Q:3393756370 VX:17061863513商業智慧(Business Intelligence)軟體的英文縮寫。商業智慧通常被理解為將企業中現有的資料轉化為知識,例如銷售資料分析、商品資料分析、人員資料分析等,從而幫助企業做出明智的業

將Streaming資料存入redis中

啟動redis:   ./redis-cli -h hadoop01 package utils import org.apache.commons.pool2.impl.GenericObjectPoolConfig import redis.clients.j

java rfc 資料

1. 連線rfc 1 package com.simpro.sapapi.util; 2 3 import java.io.File; 4 import java.io.FileOutputStream; 5 import java.util.Properties; 6 7 im

java JTable 動態資料顯示及自動重新整理

網上有很多關於這方面的介紹,但是寫的要麼含糊,要麼不全,很容易讓開發者更加糊塗,本人最初也是這樣,所以在這裡把JTable 的動態資料拉取顯示以及自動重新整理的方法整理一下。 JTable在java api中有下列幾種構造方法: 構造方法摘要

ListView分頁載入,動態從網上資料

最近做專案有個需求: (1)從網上獲取分頁資料; (2)在Android手機端顯示; (3)載入的動畫和文字; (4)資料超過40條時顯示滑動條等。 由於之前自己做的偏底層一點,所以這塊內容琢磨了蠻久,最後可以完美實現專案需求,內容見下面: 一、首先,需要有個佈局

勾熱門城市“資料分析”崗位,並進行視覺化分析

首先,寫一個爬取崗位的爬蟲,如下:# -*- coding:utf-8 -*- from json import JSONDecodeError import requests import time import pandas as pd # 獲取儲存職位資訊的json

Python多程序抓鉤網十萬資料

準備 安裝Mongodb資料庫 其實不是一定要使用MongoDB,大家完全可以使用MySQL或者Redis,全看大家喜好。這篇文章我們的例子是Mongodb,所以大家需要下載它。 在Windows中。由於MongoDB預設的資料目錄為C:\data\db,建議大家直接在安裝的時候更改預設

python 遠端連線MySQL資料庫 資料存至本地檔案

1.連線資料庫 這裡預設大家都已經配置安裝好 MySQL 和 Python 的MySQL 模組,且預設大家的DB內表和訪問賬號許可權均已設定無誤,下面直接程式碼演示: # -*- codin

Go專案(一)、伺服器資料和Material Design風格

一、前言:因為希望能能夠整合現在安卓的圍棋app中較好的東西和當下較為流行的App中常見的功能,於是,打算開始這個叫Go的專案。 初步希望實現的功能: 1、使用Material Design風格進行app介面的搭建; 2、具體實現模組:

Python Selenium + PhantomJS爬海購商品資料

爬完QQ音樂以後打算爬網易雲音樂的,中間出了一點小狀況,就改爬考拉海購了(什麼狀況你猜呀❛˓◞˂̶✧以後會爬完網易雲音樂的!) 今天寫近段時間的最後一篇,寫完這篇就要開始期末複習了,寒假再來更新 pip install selenium 下載s