1. 程式人生 > >MongoDB自定義函式部分 定義及引用

MongoDB自定義函式部分 定義及引用

//定義一個Sum的函式
db.system.js.save({_id:"Sum",
            value:function(key,values)
            {
                var total = 0;
                for(var i =0;i <values.length;i++)
                    total += values[i];
                return total;
            }});

//使用Sum函式
db.loadServerScripts();Sum(1,[1,2,3,4,5,6,7,8,9])

//在People集合中使用Sum函式
db.people.runCommand(
{
    mapreduce :"people",
    map:function(){
            emit(
            {key0:this.name,
            key1:this.created},
            this.phonenum
        );},
        reduce:function(key,values)
        {
            var result = Sum(key, values);
            return result;
        },
        out :{inline : 1 }});

相關推薦

MongoDB定義函式部分 定義引用

//定義一個Sum的函式 db.system.js.save({_id:"Sum",             value:function(key,values)             {                 var total = 0;           

java定義函式的格式注意事項

修飾符   返回的型別  函式名(引數型別  形式引數1,引數型別  形式引數2,......){              執行語句;              return   返回值;}特殊情況:  功能沒有具體的返回值;注意事項:  如果返回值型別是void,那麼函式

mogodb 的定義函式定義引用

在學習MONGODB 遇到以下問題: 函式 getNextSequence 生成序列號,官方方法: 建立一張表,記錄某一個表的_ID 當前值。後面呼叫此函式生成下一個序列號, 在測試此函式時,遇到以下問題: (url:http://docs.mongodb.org/manu

大資料(二十二):hive分桶抽樣查詢、定義函式、壓縮與儲存

一、分桶及抽樣查詢 1.分桶表資料儲存         分割槽針對的是資料儲存路徑(HDFS中表現出來的便是資料夾),分桶針對的是資料檔案。分割槽提供一個隔離資料和優化查詢的便利方式。不過,並非所有的資料集都可形成合理的分割槽,特別是當資料要

大資料入門教程系列之Hive內建函式定義函式

本篇文章主要介紹Hive內建函式以及自定義UDF函式和UDFT函式,自定義UDF函式通過一個國際轉換中文的例子說明。 操作步驟: ①、準備資料和環境 ②、演示Hive內建函式 ③、自定義UDF函式編寫、演示   詳細步驟: 一、準備資料和

php定義函式內部函式----時間日期函式

時間戳:UNIX時間戳是儲存日期和時間的一種緊湊簡潔的方法,是大多數UNIX系統中儲存當前日期和時間的一種方法,也是在大多數計算機語言中表示日期和時間的一種標準格式。UNIX時間戳是從1970年1月1日0點(UTC/GMT的午夜)開始起到當前時間所經過的秒數。 (1)date() 函式 該函式將時間戳格式

php定義函式內部函式----字串處理函式

一、統計字串 (1)strlen() 統計字串長度 函式返回值為整形,表示字串長度。若返回值為0,表示該字串為空。該函式對待一個UTF8的中文字元,處理為3個位元組長度。 echo strlen("xiaolin!");// 輸出:8 echo strlen("小林!"); // 輸出:7

hive中定義函式定義json字串解析函式

hive中如何定義自己的函式 寫一個Java 程式,實現想要的函式功能 1.匯入hive安裝目錄的lib目錄的包 2新建一個類繼承 UDF類 3.過載父類中evaluate方法; 4.寫下自己的邏輯 package test; import

Oracle建立定義函式時出現錯誤:PLS-00103PLS-00382

(作者:陳玓玏) 一、PLS-00103 一般出現這個錯誤,基本上可以確定是你的語法錯誤,或者是有中文的輸入。 比如說: 1、Oracle用elsif而你用的是else if; 2、直接從網頁中把程式碼貼上過來結果程式碼中有中文空格。 這種情況下,解決問題的方法

定義函式內部函式

變數的作用域  區域性變數 global $Global及其他超全域性陣列 靜態變數 僅初始化賦值 保留於記憶體直到response才銷燬 global和static變數的區別 global:區域性變數全域性話 static:定義靜態區域性變數 函

solidity學習筆記(8)—— 函式修飾符定義修飾符

在Solidity中,函式修飾符規定了函式的行為、呼叫規則。在Solidity語言中預置的修飾符有如下一些: 1、函式和狀態變數可見性修飾符 public:在外部和內部均可見(建立儲存/狀態變數的訪問者函式) private:僅在當前合約中可見 external: 只有外部

Python連線Oracle/Oracle定義函式函式的呼叫

# Python 連線 Oracle Python自帶的模組中有很多操縱檔案的。我們可以把檔案的資料讀出來,經過處理還可以將資料寫入檔案中。但是對於資料的管理和分析來說,資料庫還是專業一些。如果Python能和資料庫結合在一起,那麼就能結合兩種的優勢,提高效率。

MongoDB自動增長id實現、定義函式呼叫、與Spring整合

昨天同事問實現MongoDB主鍵自動增長有什麼好的辦法,雖然喜歡MongoDB客戶端驅動程式自動生成的id,不過還是來測試了一下,僅僅是測試哦 廢話少說 1、建立專案,新增依賴 <dependencies> <dependen

shell呼叫定義函式傳參

1 單個引數 #!/bin/bash function LoopPrint() { count=0; while [ $count -lt $1 ] ; do echo $count; let +

spark三種清理資料的方式:UDF,定義函式,spark.sql;Python中的zip()與*zip()函式詳解//python中的*args和**kwargs

(1)UDF的方式清理資料 import sys reload(sys) sys.setdefaultencoding('utf8') import re import json from pyspark.sql import SparkSession

Hive定義函式(UDF)的編寫使用

前提條件: 1. 安裝好hadoop2.7.3(LInux環境下) 2. 安裝好Hive2.3.3,參考:Hive的安裝配置 3. 安裝好Maven(Windows環境下)參考:Maven安裝 4. 安裝好eclipse(Windows環境下)   Hive自定義函

R語言學習筆記(四)流程函式定義函式

if(FALSE){條件執行} if(FALSE){if-else結構,多重判斷} if(FALSE){對score進行等級判定} score = 65 if(score >= 90){ pr

python在引用其他資料夾下定義函式

專案層次結構類似於此,現在需要在stup.py檔案中引用A.py檔案中定義的函式 test, 可以採用: from Lib.A import test A.py內容: #-*- coding: UTF-8 -*- import sys reload(sys) sy

R語言定義函式基本分支迴圈結構

使用者自定義函式: 使用者自定義函式名<- function(引數列表){ 計算步驟n Return(函式值) } 分支結構: If(關係表示式){語句} If(關係表示式){語句}else{語句} Ifelse(關係表示式,語句1,語句2) switch(R物件,值

Hive 內建函式定義函式

1.內建函式 使用如下命令檢視當前hive版本支援的所有內建函式 show functions; 部分截圖: 可以使用如下命令檢視某個函式的使用方法及作用,比如檢視 upper函式 desc function upper; 如果想要檢