用概率的方法計算Pi值
阿新 • • 發佈:2019-02-01
精確計算Pi的值,從古至今都吸引了無數的數學家。迄今為止,科學家還沒有計算得出精確的Pi值,也沒有發現小數點後面的值有什麼規律。
現在,我們用一種比較簡單的概率的方式來近似計算Pi的值。
二話不說,直接上程式碼。
public class PiCaculate {
public static double caculate() {
Random r = new Random();
//d1,d2都是從[0,1)的隨機浮點數
double d1 = r.nextDouble();
double d2 = r.nextDouble();
double result = Math.sqrt(d1*d1 + d2*d2);
return result;
}
public static void main(String[] args) {
int count = 0;
int nums = 100000;
for(int i=0; i<nums; i++) {
double result = caculate();
if(result <= 1.0) {
count++;
}
}
double pi = 4 * (float)count / (float)nums;
System.out.println("Pi is: " + pi);
}
}
將程式碼run起來:
Pi is: 3.14028000831604
稍微解釋一下程式碼的思路:
現在假設有一個單位圓,圓點為中心,1為半徑。d1,d2為兩隨機浮點數,取值範圍均為[0,1]。假設d1為x座標,d2為y座標,如果
spark中計算Pi值的demo,我們來看看spark中的原始碼
from __future__ import print_function
import sys
from random import random
from operator import add
from pyspark import SparkContext
if __name__ == "__main__":
"""
Usage: pi [partitions]
"""
sc = SparkContext(appName="PythonPi")
partitions = int(sys.argv[1]) if len(sys.argv) > 1 else 2
n = 100000 * partitions
def f(_):
x = random() * 2 - 1
y = random() * 2 - 1
return 1 if x ** 2 + y ** 2 < 1 else 0
count = sc.parallelize(range(1, n + 1), partitions).map(f).reduce(add)
print("Pi is roughly %f" % (4.0 * count / n))
sc.stop()
可以看出,裡面計算Pi的思路,跟我們之前的思路是一樣滴!