(轉,好文必須的)Android深入淺出之Binder機制
Android深入淺出之Binder機制
一說明
Android系統最常見也是初學者最難搞明白的就是Binder了,很多很多的Service就是通過Binder機制來和客戶端通訊互動的。所以搞明白Binder的話,在很大程度上就能理解程式執行的流程。
我們這裡將以MediaService的例子來分析Binder的使用:
l ServiceManager,這是Android OS的整個服務的管理程式
l MediaService,這個程式裡邊註冊了提供媒體播放的服務程式MediaPlayerService,我們最後只分析這個
l MediaPlayerClient,這個是與MediaPlayerService互動的客戶端程式
下面先講講MediaService應用程式。
二 MediaService的誕生
MediaService是一個應用程式,雖然Android搞了七七八八的JAVA之類的東西,但是在本質上,它還是一個完整的Linux作業系統,也還沒有牛到什麼應用程式都是JAVA寫。所以,MS(MediaService)就是一個和普通的C++應用程式一樣的東西。
MediaService的原始碼檔案在:framework\base\Media\MediaServer\Main_mediaserver.cpp中。讓我們看看到底是個什麼玩意兒!
int main(int argc,char** argv)
{
//FT,就這麼簡單??
//獲得一個ProcessState例項
sp<ProcessState>proc(ProcessState::self());
//得到一個ServiceManager物件
sp<IServiceManager> sm =defaultServiceManager();
MediaPlayerService::instantiate();//初始化MediaPlayerService服務
ProcessState::self()->startThreadPool();//看名字,啟動Process的執行緒池?
IPCThreadState::self()->joinThreadPool();//將自己加入到剛才的執行緒池?
}
其中,我們只分析MediaPlayerService。
這麼多疑問,看來我們只有一個個函式深入分析了。不過,這裡先簡單介紹下sp這個東西。
sp,究竟是smartpointer還是strong pointer呢?其實我後來發現不用太關注這個,就把它當做一個普通的指標看待,即sp<IServiceManager>======》IServiceManager*吧。sp是google搞出來的為了方便C/C++程式設計師管理指標的分配和釋放的一套方法,類似JAVA的什麼WeakReference之類的。我個人覺得,要是自己寫程式的話,不用這個東西也成。
好了,以後的分析中,sp<XXX>就看成是XXX*就可以了。
2.1 ProcessState
第一個呼叫的函式是ProcessState::self(),然後賦值給了proc變數,程式執行完,proc會自動delete內部的內容,所以就自動釋放了先前分配的資源。
ProcessState位置在framework\base\libs\binder\ProcessState.cpp
sp<ProcessState>ProcessState::self()
{
if (gProcess != NULL) return gProcess;---->第一次進來肯定不走這兒
AutoMutex _l(gProcessMutex);--->鎖保護
if (gProcess == NULL) gProcess = newProcessState;--->建立一個ProcessState物件
returngProcess;--->看見沒,這裡返回的是指標,但是函式返回的是sp<xxx>,所以
//把sp<xxx>看成是XXX*是可以的
}
再來看看ProcessState建構函式
//這個建構函式看來很重要
ProcessState::ProcessState()
: mDriverFD(open_driver())----->Android很多程式碼都是這麼寫的,稍不留神就沒看見這裡呼叫了一個很重要的函式
, mVMStart(MAP_FAILED)//對映記憶體的起始地址
, mManagesContexts(false)
, mBinderContextCheckFunc(NULL)
, mBinderContextUserData(NULL)
, mThreadPoolStarted(false)
, mThreadPoolSeq(1)
{
if(mDriverFD >= 0) {
//BIDNER_VM_SIZE定義為(1*1024*1024) - (4096 *2) 1M-8K
mVMStart = mmap(0, BINDER_VM_SIZE,PROT_READ, MAP_PRIVATE | MAP_NORESERVE,
mDriverFD, 0);//這個需要你自己去man mmap的用法了,不過大概意思就是
//將fd對映為記憶體,這樣記憶體的memcpy等操作就相當於write/read(fd)了
}
...
}
最討厭這種在構造list中新增函式的寫法了,常常疏忽某個變數的初始化是一個函式呼叫的結果。
open_driver,就是開啟/dev/binder這個裝置,這個是android在核心中搞的一個專門用於完成
程序間通訊而設定的一個虛擬的裝置。BTW,說白了就是核心的提供的一個機制,這個和我們用socket加NET_LINK方式和核心通訊是一個道理。
static intopen_driver()
{
int fd = open("/dev/binder",O_RDWR);//開啟/dev/binder
if (fd >= 0) {
....
size_t maxThreads = 15;
//通過ioctl方式告訴核心,這個fd支援最大執行緒數是15個。
result = ioctl(fd,BINDER_SET_MAX_THREADS, &maxThreads); }
returnfd;
好了,到這裡Process::self就分析完了,到底幹什麼了呢?
l 開啟/dev/binder裝置,這樣的話就相當於和核心binder機制有了互動的通道
l 對映fd到記憶體,裝置的fd傳進去後,估計這塊記憶體是和binder裝置共享的
接下來,就到呼叫defaultServiceManager()地方了。
2.2 defaultServiceManager
defaultServiceManager位置在framework\base\libs\binder\IServiceManager.cpp中
sp<IServiceManager>defaultServiceManager()
{
if (gDefaultServiceManager != NULL) returngDefaultServiceManager;
//又是一個單例,設計模式中叫singleton。
{
AutoMutex_l(gDefaultServiceManagerLock);
if (gDefaultServiceManager == NULL) {
//真正的gDefaultServiceManager是在這裡建立的喔
gDefaultServiceManager =interface_cast<IServiceManager>(
ProcessState::self()->getContextObject(NULL));
}
}
return gDefaultServiceManager;
}
-----》
gDefaultServiceManager= interface_cast<IServiceManager>(
ProcessState::self()->getContextObject(NULL));
ProcessState::self,肯定返回的是剛才建立的gProcess,然後呼叫它的getContextObject,注意,傳進去的是NULL,即0
//回到ProcessState類,
sp<IBinder>ProcessState::getContextObject(const sp<IBinder>& caller)
{
if(supportsProcesses()) {//該函式根據開啟裝置是否成功來判斷是否支援process,
//在真機上肯定走這個
return getStrongProxyForHandle(0);//注意,這裡傳入0
}
}
----》進入到getStrongProxyForHandle,函式名字怪怪的,經常嚴重阻礙大腦運轉
//注意這個引數的命名,handle。搞過windows的應該比較熟悉這個名字,這是對
//資源的一種標示,其實說白了就是某個資料結構,儲存在陣列中,然後handle是它在這個陣列中的索引。--->就是這麼一個玩意兒
sp<IBinder>ProcessState::getStrongProxyForHandle(int32_t handle)
{
sp<IBinder> result;
AutoMutex _l(mLock);
handle_entry*e = lookupHandleLocked(handle);--》哈哈,果然,從陣列中查詢對應
索引的資源,lookupHandleLocked這個就不說了,內部會返回一個handle_entry
下面是 handle_entry 的結構
/*
struct handle_entry {
IBinder* binder;--->Binder
RefBase::weakref_type* refs;-->不知道是什麼,不影響.
};
*/
if (e != NULL) {
IBinder* b = e->binder; -->第一次進來,肯定為空
if (b == NULL ||!e->refs->attemptIncWeak(this)) {
b = new BpBinder(handle); --->看見了吧,建立了一個新的BpBinder
e->binder = b;
result = b;
}....
}
return result; 返回剛才建立的BpBinder。
}
//到這裡,是不是有點亂了?對,當人腦分析的函式呼叫太深的時候,就容易忘記。
我們是從gDefaultServiceManager= interface_cast<IServiceManager>(
ProcessState::self()->getContextObject(NULL));
開始搞的,現在,這個函式呼叫將變成
gDefaultServiceManager= interface_cast<IServiceManager>(new BpBinder(0));
BpBinder又是個什麼玩意兒?Android名字起得太眼花繚亂了。
因為還沒介紹Binder機制的大架構,所以這裡介紹BpBinder不合適,但是又講到BpBinder了,不介紹Binder架構似乎又說不清楚....,sigh!
恩,還是繼續把層層深入的函式呼叫棧化繁為簡吧,至少大腦還可以工作。先看看BpBinder的建構函式把。
2.3 BpBinder
BpBinder位置在framework\base\libs\binder\BpBinder.cpp中。
BpBinder::BpBinder(int32_thandle)
: mHandle(handle) //注意,接上述內容,這裡呼叫的時候傳入的是0
, mAlive(1)
, mObitsSent(0)
, mObituaries(NULL)
{
IPCThreadState::self()->incWeakHandle(handle);//FT,竟然到IPCThreadState::self()
}
這裡一塊說說吧,IPCThreadState::self估計怎麼著又是一個singleton吧?
//該檔案位置在framework\base\libs\binder\IPCThreadState.cpp
IPCThreadState*IPCThreadState::self()
{
if(gHaveTLS) {//第一次進來為false
restart:
const pthread_key_t k = gTLS;
//TLS是Thread Local Storage的意思,不懂得自己去google下它的作用吧。這裡只需要
//知道這種空間每個執行緒有一個,而且執行緒間不共享這些空間,好處是?我就不用去搞什麼
//同步了。在這個執行緒,我就用這個執行緒的東西,反正別的執行緒獲取不到其他執行緒TLS中的資料。===》這句話有漏洞,鑽牛角尖的明白大概意思就可以了。
//從執行緒本地儲存空間中獲得儲存在其中的IPCThreadState物件
//這段程式碼寫法很晦澀,看見沒,只有pthread_getspecific,那麼肯定有地方呼叫
//pthread_setspecific。
IPCThreadState* st =(IPCThreadState*)pthread_getspecific(k);
if (st) return st;
return new IPCThreadState;//new一個物件,
}
if(gShutdown) return NULL;
pthread_mutex_lock(&gTLSMutex);
if (!gHaveTLS) {
if (pthread_key_create(&gTLS,threadDestructor) != 0) {
pthread_mutex_unlock(&gTLSMutex);
return NULL;
}
gHaveTLS = true;
}
pthread_mutex_unlock(&gTLSMutex);
gotorestart; //我FT,其實goto沒有我們說得那樣卑鄙,彙編程式碼很多跳轉語句的。
//關鍵是要用好。
}
//這裡是建構函式,在建構函式裡邊pthread_setspecific
IPCThreadState::IPCThreadState()
: mProcess(ProcessState::self()),mMyThreadId(androidGetTid())
{
pthread_setspecific(gTLS, this);
clearCaller();
mIn.setDataCapacity(256);
//mIn,mOut是兩個Parcel,幹嘛用的啊?把它看成是命令的buffer吧。再深入解釋,又會大腦停擺的。
mOut.setDataCapacity(256);
}
出來了,終於出來了....,恩,回到BpBinder那。
BpBinder::BpBinder(int32_thandle)
: mHandle(handle) //注意,接上述內容,這裡呼叫的時候傳入的是0
, mAlive(1)
, mObitsSent(0)
, mObituaries(NULL)
{
......
IPCThreadState::self()->incWeakHandle(handle);
什麼incWeakHandle,不講了..
}
喔,new BpBinder就算完了。到這裡,我們建立了些什麼呢?
l ProcessState有了。
l IPCThreadState有了,而且是主執行緒的。
l BpBinder有了,內部handle值為0
gDefaultServiceManager =interface_cast<IServiceManager>(new BpBinder(0));
終於回到原點了,大家是不是快瘋掉了?
interface_cast,我第一次接觸的時候,把它看做類似的static_cast一樣的東西,然後死活也搞不明白 BpBinder*指標怎麼能強轉為IServiceManager*,花了n多時間檢視BpBinder是否和IServiceManager繼承還是咋的....。
終於,我用ctrl+滑鼠(source insight)跟蹤進入了interface_cast
IInterface.h位於framework/base/include/binder/IInterface.h
template<typenameINTERFACE>
inlinesp<INTERFACE> interface_cast(const sp<IBinder>& obj)
{
return INTERFACE::asInterface(obj);
}
所以,上面等價於:
inline sp<IServiceManager>interface_cast(const sp<IBinder>& obj)
{
return IServiceManager::asInterface(obj);
}
看來,只能跟到IServiceManager了。
IServiceManager.h---》framework/base/include/binder/IServiceManager.h
看看它是如何定義的:
2.4 IServiceManager
classIServiceManager : public IInterface
{
//ServiceManager,字面上理解就是Service管理類,管理什麼?增加服務,查詢服務等
//這裡僅列出增加服務addService函式
public:
DECLARE_META_INTERFACE(ServiceManager);
virtual status_t addService( const String16& name,
const sp<IBinder>& service) = 0;
};
DECLARE_META_INTERFACE(ServiceManager)??
怎麼和MFC這麼類似?微軟的影響很大啊!知道MFC的,有DELCARE肯定有IMPLEMENT
果然,這兩個巨集DECLARE_META_INTERFACE和IMPLEMENT_META_INTERFACE(INTERFACE, NAME)都在
剛才的IInterface.h中定義。我們先看看DECLARE_META_INTERFACE這個巨集往IServiceManager加了什麼?
下面是DECLARE巨集
#defineDECLARE_META_INTERFACE(INTERFACE) \
static const android::String16descriptor; \
static android::sp<I##INTERFACE>asInterface( \
constandroid::sp<android::IBinder>& obj); \
virtual const android::String16&getInterfaceDescriptor() const; \
I##INTERFACE(); \
virtual ~I##INTERFACE();
我們把它兌現到IServiceManager就是:
static constandroid::String16 descriptor; -->喔,增加一個描述字串
staticandroid::sp< IServiceManager > asInterface(constandroid::sp<android::IBinder>&
obj) ---》增加一個asInterface函式
virtual constandroid::String16& getInterfaceDescriptor() const; ---》增加一個get函式
估計其返回值就是descriptor這個字串
IServiceManager(); \
virtual ~IServiceManager();增加構造和虛析購函式...
那IMPLEMENT巨集在哪定義的呢?
見IServiceManager.cpp。位於framework/base/libs/binder/IServiceManager.cpp
IMPLEMENT_META_INTERFACE(ServiceManager,"android.os.IServiceManager");
下面是這個巨集的定義
#defineIMPLEMENT_META_INTERFACE(INTERFACE, NAME) \
const android::String16I##INTERFACE::descriptor(NAME); \
const android::String16& \
I##INTERFACE::getInterfaceDescriptor() const { \
return I##INTERFACE::descriptor; \
} \
android::sp<I##INTERFACE>I##INTERFACE::asInterface( \
constandroid::sp<android::IBinder>& obj) \
{ \
android::sp<I##INTERFACE>intr; \
if (obj != NULL) { \
intr =static_cast<I##INTERFACE*>( \
obj->queryLocalInterface( \
I##INTERFACE::descriptor).get()); \
if (intr == NULL) { \
intr = newBp##INTERFACE(obj); \
} \
} \
return intr; \
} \
I##INTERFACE::I##INTERFACE() { } \
I##INTERFACE::~I##INTERFACE(){ } \
很麻煩吧?尤其是巨集看著頭疼。趕緊兌現下吧。
const
android::String16IServiceManager::descriptor(“android.os.IServiceManager”);
constandroid::String16& IServiceManager::getInterfaceDescriptor() const
{ return IServiceManager::descriptor;//返回上面那個android.os.IServiceManager
} android::sp<IServiceManager> IServiceManager::asInterface(
constandroid::sp<android::IBinder>& obj)
{
android::sp<IServiceManager>intr;
if (obj != NULL) {
intr = static_cast<IServiceManager*>(
obj->queryLocalInterface(IServiceManager::descriptor).get());
if (intr == NULL) {
intr = new BpServiceManager(obj);
}
}
return intr;
}
IServiceManager::IServiceManager () {}
IServiceManager::~ IServiceManager() { }
哇塞,asInterface是這麼搞的啊,趕緊分析下吧,還是不知道interface_cast怎麼把BpBinder*轉成了IServiceManager
我們剛才解析過的interface_cast<IServiceManager>(new BpBinder(0)),
原來就是呼叫asInterface(new BpBinder(0))
android::sp<IServiceManager>IServiceManager::asInterface(
constandroid::sp<android::IBinder>& obj)
{
android::sp<IServiceManager>intr;
if (obj != NULL) {
....
intr = new BpServiceManager(obj);
//神吶,終於看到和IServiceManager相關的東西了,看來
//實際返回的是BpServiceManager(new BpBinder(0));
}
}
return intr;
}
BpServiceManager是個什麼玩意兒?p是什麼個意思?
2.5 BpServiceManager
終於可以講解點架構上的東西了。p是proxy即代理的意思,Bp就是BinderProxy,BpServiceManager,就是SM的Binder代理。既然是代理,那肯定希望對使用者是透明的,那就是說標頭檔案裡邊不會有這個Bp的定義。是嗎?
果然,BpServiceManager就在剛才的IServiceManager.cpp中定義。
classBpServiceManager : public BpInterface<IServiceManager>
//這種繼承方式,表示同時繼承BpInterface和IServiceManager,這樣IServiceManger的
addService必然在這個類中實現
{
public:
//注意建構函式引數的命名 impl,難道這裡使用了Bridge模式?真正完成操作的是impl物件?
//這裡傳入的impl就是newBpBinder(0)
BpServiceManager(constsp<IBinder>& impl)
:BpInterface<IServiceManager>(impl)
{
}
virtual status_t addService(constString16& name, const sp<IBinder>& service)
{
待會再說..
}
基類BpInterface的建構函式(經過兌現後)
//這裡的引數又叫remote,唉,真是害人不淺啊。
inlineBpInterface< IServiceManager >::BpInterface(const sp<IBinder>&remote)
: BpRefBase(remote)
{
}
BpRefBase::BpRefBase(constsp<IBinder>& o)
: mRemote(o.get()), mRefs(NULL), mState(0)
//o.get(),這個是sp類的獲取實際資料指標的一個方法,你只要知道
//它返回的是sp<xxxx>中xxx* 指標就行
{
//mRemote就是剛才的BpBinder(0)
...
}
好了,到這裡,我們知道了:
sp<IServiceManager> sm =defaultServiceManager(); 返回的實際是BpServiceManager,它的remote物件是BpBinder,傳入的那個handle引數是0。
現在重新回到MediaService。
int main(int argc,char** argv)
{
sp<ProcessState>proc(ProcessState::self());
sp<IServiceManager>sm = defaultServiceManager();
//上面的講解已經完了
MediaPlayerService::instantiate();//例項化MediaPlayerservice
//看來這裡有名堂!
ProcessState::self()->startThreadPool();
IPCThreadState::self()->joinThreadPool();
}
到這裡,我們把binder裝置打開了,得到一個BpServiceManager物件,這表明我們可以和SM打交道了,但是好像沒幹什麼有意義的事情吧?
2.6 MediaPlayerService
那下面我們看看後續又幹了什麼?以MediaPlayerService為例。
它位於framework\base\media\libmediaplayerservice\libMediaPlayerService.cpp
voidMediaPlayerService::instantiate() {
defaultServiceManager()->addService(
//傳進去服務的名字,傳進去new出來的物件
String16("media.player"),new MediaPlayerService());
}
MediaPlayerService::MediaPlayerService()
{
LOGV("MediaPlayerServicecreated");//太簡單了
mNextConnId = 1;
}
defaultServiceManager返回的是剛才建立的BpServiceManager
呼叫它的addService函式。
MediaPlayerService從BnMediaPlayerService派生
classMediaPlayerService : public BnMediaPlayerService
FT,MediaPlayerService從BnMediaPlayerService派生,BnXXX,BpXXX,快暈了。
Bn 是Binder Native的含義,是和Bp相對的,Bp的p是proxy代理的意思,那麼另一端一定有一個和代理打交道的東西,這個就是Bn。
講到這裡會有點亂喔。先分析下,到目前為止都構造出來了什麼。
l BpServiceManager
l BnMediaPlayerService
這兩個東西不是相對的兩端,從BnXXX就可以判斷,BpServiceManager對應的應該是BnServiceManager,BnMediaPlayerService對應的應該是BpMediaPlayerService。
我們現在在哪裡?對了,我們現在是建立了BnMediaPlayerService,想把它加入到系統的中去。
喔,明白了。我建立一個新的Service—BnMediaPlayerService,想把它告訴ServiceManager。
那我怎麼和ServiceManager通訊呢?恩,利用BpServiceManager。所以嘛,我呼叫了BpServiceManager的addService函式!
為什麼要搞個ServiceManager來呢?這個和Android機制有關係。所有Service都需要加入到ServiceManager來管理。同時也方便了Client來查詢系統存在哪些Service,沒看見我們傳入了字串嗎?這樣就可以通過Human Readable的字串來查詢Service了。
---》感覺沒說清楚...饒恕我吧。
2.7 addService
addService是呼叫的BpServiceManager的函式。前面略去沒講,現在我們看看。
virtual status_taddService(const String16& name, const sp<IBinder>& service)
{
Parcel data, reply;
//data是傳送到BnServiceManager的命令包
//看見沒?先把Interface名字寫進去,也就是什麼android.os.IServiceManager
data.writeInterfaceToken(IServiceManager::getInterfaceDescriptor());
//再把新service的名字寫進去 叫media.player
data.writeString16(name);
//把新服務service—>就是MediaPlayerService寫到命令中
data.writeStrongBinder(service);
//呼叫remote的transact函式
status_t err =remote()->transact(ADD_SERVICE_TRANSACTION, data, &reply);
return err == NO_ERROR ?reply.readInt32() : err;
}
我的天,remote()返回的是什麼?
remote(){ return mRemote; }-->啊?找不到對應的實際物件了???
還記得我們剛才初始化時候說的:
“這裡的引數又叫remote,唉,真是害人不淺啊“
原來,這裡的mRemote就是最初建立的BpBinder..
好吧,到那裡去看看:
BpBinder的位置在framework\base\libs\binder\BpBinder.cpp
status_tBpBinder::transact(
uint32_t code, const Parcel& data,Parcel* reply, uint32_t flags)
{
//又繞回去了,呼叫IPCThreadState的transact。
//注意啊,這裡的mHandle為0,code是ADD_SERVICE_TRANSACTION,data是命令包
//reply是回覆包,flags=0
status_t status =IPCThreadState::self()->transact(
mHandle, code, data, reply, flags);
if (status == DEAD_OBJECT) mAlive = 0;
return status;
}
...
}
再看看IPCThreadState的transact函式把
status_tIPCThreadState::transact(int32_t handle,
uint32_tcode, const Parcel& data,
Parcel* reply,uint32_t flags)
{
status_t err = data.errorCheck();
flags |= TF_ACCEPT_FDS;
if (err == NO_ERROR) {
//呼叫writeTransactionData 傳送資料
err = writeTransactionData(BC_TRANSACTION, flags,handle, code, data, NULL);
}
if ((flags & TF_ONE_WAY) == 0) {
if (reply) {
err = waitForResponse(reply);
} else {
Parcel fakeReply;
err =waitForResponse(&fakeReply);
}
....等回覆
err = waitForResponse(NULL, NULL);
....
return err;
}
再進一步,瞧瞧這個...
status_tIPCThreadState::writeTransactionData(int32_t cmd, uint32_t binderFlags,
int32_t handle, uint32_t code, constParcel& data, status_t* statusBuffer)
{
binder_transaction_data tr;
tr.target.handle = handle;
tr.code = code;
tr.flags = binderFlags;
const status_t err = data.errorCheck();
if (err == NO_ERROR) {
tr.data_size = data.ipcDataSize();
tr.data.ptr.buffer = data.ipcData();
tr.offsets_size = data.ipcObjectsCount()*sizeof(size_t);
tr.data.ptr.offsets =data.ipcObjects();
}
....
上面把命令資料封裝成binder_transaction_data,然後
寫到mOut中,mOut是命令的緩衝區,也是一個Parcel
mOut.writeInt32(cmd);
mOut.write(&tr, sizeof(tr));
//僅僅寫到了Parcel中,Parcel好像沒和/dev/binder裝置有什麼關聯啊?
恩,那隻能在另外一個地方寫到binder裝置中去了。難道是在?
return NO_ERROR;
}
//說對了,就是在waitForResponse中
status_tIPCThreadState::waitForResponse(Parcel *reply, status_t *acquireResult)
{
int32_t cmd;
int32_t err;
while(1) {
//talkWithDriver,哈哈,應該是這裡了
if ((err=talkWithDriver()) <NO_ERROR) break;
err = mIn.errorCheck();
if (err < NO_ERROR) break;
if (mIn.dataAvail() == 0) continue;
//看見沒?這裡開始操作mIn了,看來talkWithDriver中
//把mOut發出去,然後從driver中讀到資料放到mIn中了。
cmd = mIn.readInt32();
switch (cmd) {
caseBR_TRANSACTION_COMPLETE:
if (!reply &&!acquireResult) goto finish;
break;
.....
return err;
}
status_tIPCThreadState::talkWithDriver(bool doReceive)
{
binder_write_read bwr;
//中間東西太複雜了,不就是把mOut資料和mIn接收資料的處理後賦值給bwr嗎?
status_t err;
do {
//用ioctl來讀寫
if (ioctl(mProcess->mDriverFD,BINDER_WRITE_READ, &bwr) >= 0)
err = NO_ERROR;
else
err = -errno;
} while (err == -EINTR);
//到這裡,回覆資料就在bwr中了,bmr接收回複數據的buffer就是mIn提供的
if (bwr.read_consumed > 0) {
mIn.setDataSize(bwr.read_consumed);
mIn.setDataPosition(0);
}
returnNO_ERROR;
}
好了,到這裡,我們傳送addService的流程就徹底走完了。
BpServiceManager傳送了一個addService命令到BnServiceManager,然後收到回覆。
先繼續我們的main函式。
int main(int argc,char** argv)
{
sp<ProcessState>proc(ProcessState::self());
sp<IServiceManager> sm =defaultServiceManager();
MediaPlayerService::instantiate();
---》該函式內部呼叫addService,把MediaPlayerService資訊 add到ServiceManager中
ProcessState::self()->startThreadPool();
IPCThreadState::self()->joinThreadPool();
}
這裡有個容易搞暈的地方:
MediaPlayerService是一個BnMediaPlayerService,那麼它是不是應該等著
BpMediaPlayerService來和他互動呢?但是我們沒看見MediaPlayerService有開啟binder裝置的操作啊!
這個嘛,到底是繼續addService操作的另一端BnServiceManager還是先說
BnMediaPlayerService呢?
還是先說BnServiceManager吧。順便把系統的Binder架構說說。
2.8 BnServiceManager
上面說了,defaultServiceManager返回的是一個BpServiceManager,通過它可以把命令請求傳送到binder裝置,而且handle的值為0。那麼,系統的另外一端肯定有個接收命令的,那又是誰呢?
很可惜啊,BnServiceManager不存在,但確實有一個程式完成了BnServiceManager的工作,那就是service.exe(如果在windows上一定有exe字尾,叫service的名字太多了,這裡加exe就表明它是一個程式)
位置在framework/base/cmds/servicemanger.c中。
int main(int argc,char **argv)
{
struct binder_state *bs;
void *svcmgr = BINDER_SERVICE_MANAGER;
bs = binder_open(128*1024);//應該是開啟binder裝置吧?
binder_become_context_manager(bs) //成為manager
svcmgr_handle = svcmgr;
binder_loop(bs, svcmgr_handler);//處理BpServiceManager發過來的命令
}
看看binder_open是不是和我們猜得一樣?
struct binder_state*binder_open(unsigned mapsize)
{
struct binder_state *bs;
bs = malloc(sizeof(*bs));
....
bs->fd = open("/dev/binder",O_RDWR);//果然如此
....
bs->mapsize = mapsize;
bs->mapped = mmap(NULL, mapsize,PROT_READ, MAP_PRIVATE, bs->fd, 0);
}
再看看binder_become_context_manager
intbinder_become_context_manager(struct binder_state *bs)
{
return ioctl(bs->fd,BINDER_SET_CONTEXT_MGR, 0);//把自己設為MANAGER
}
binder_loop 肯定是從binder裝置中讀請求,寫回復的這麼一個迴圈吧?
voidbinder_loop(struct binder_state *bs, binder_handler func)
{
int res;
struct binder_write_read bwr;
readbuf[0] = BC_ENTER_LOOPER;
binder_write(bs, readbuf,sizeof(unsigned));
for (;;) {//果然是迴圈
bwr.read_size = sizeof(readbuf);
bwr.read_consumed = 0;
bwr.read_buffer = (unsigned) readbuf;
res = ioctl(bs->fd, BINDER_WRITE_READ, &bwr);
//哈哈,收到請求了,解析命令
res = binder_parse(bs, 0, readbuf,bwr.read_consumed, func);
}
這個...後面還要說嗎??
恩,最後有一個類似handleMessage的地方處理各種各樣的命令。這個就是
svcmgr_handler,就在ServiceManager.c中
intsvcmgr_handler(struct binder_state *bs,
struct binder_txn *txn,
struct binder_io *msg,
struct binder_io *reply)
{
struct svcinfo *si;
uint16_t *s;
unsigned len;
void *ptr;
s = bio_get_string16(msg, &len);
switch(txn->code) {
case SVC_MGR_ADD_SERVICE:
s = bio_get_string16(msg, &len);
ptr = bio_get_ref(msg);
if (do_add_service(bs, s, len, ptr,txn->sender_euid))
return -1;
break;
...
其中,do_add_service真正新增BnMediaService資訊
intdo_add_service(struct binder_state *bs,
uint16_t *s, unsigned len,
void *ptr, unsigned uid)
{
struct svcinfo *si;
si = find_svc(s, len);s是一個list
si = malloc(sizeof(*si) + (len + 1) *sizeof(uint16_t));
si->ptr = ptr;
si->len = len;
memcpy(si->name, s, (len + 1) *sizeof(uint16_t));
si->name[len] = '\0';
si->death.func = svcinfo_death;
si->death.ptr = si;
si->next = svclist;
svclist = si; //看見沒,這個svclist是一個列表,儲存了當前註冊到ServiceManager
中的資訊
}
binder_acquire(bs, ptr);//這個嗎。當這個Service退出後,我希望系統通知我一下,好釋放上面malloc出來的資源。大概就是幹這個事情的。
binder_link_to_death(bs, ptr,&si->death);
return 0;
}
喔,對於addService來說,看來ServiceManager把資訊加入到自己維護的一個服務列表中了。
2.9 ServiceManager存在的意義
為何需要一個這樣的東西呢?
原來,Android系統中Service資訊都是先add到ServiceManager中,由ServiceManager來集中管理,這樣就可以查詢當前系統有哪些服務。而且,Android系統中某個服務例如MediaPlayerService的客戶端想要和MediaPlayerService通訊的話,必須先向ServiceManager查詢MediaPlayerService的資訊,然後通過ServiceManager返回的東西再來和MediaPlayerService互動。
畢竟,要是MediaPlayerService身體不好,老是掛掉的話,客戶的程式碼就麻煩了,就不知道後續新生的MediaPlayerService的資訊了,所以只能這樣:
l MediaPlayerService向SM註冊
l MediaPlayerClient查詢當前註冊在SM中的MediaPlayerService的資訊
l 根據這個資訊,MediaPlayerClient和MediaPlayerService互動
另外,ServiceManager的handle標示是0,所以只要往handle是0的服務傳送訊息了,最終都會被傳遞到ServiceManager中去。
三 MediaService的執行
上一節的知識,我們知道了:
l defaultServiceManager得到了BpServiceManager,然後MediaPlayerService 例項化後,呼叫BpServiceManager的addService函式
l 這個過程中,是service_manager收到addService的請求,然後把對應資訊放到自己儲存的一個服務list中
到這兒,我們可看到,service_manager有一個binder_looper函式,專門等著從binder中接收請求。雖然service_manager沒有從BnServiceManager中派生,但是它肯定完成了BnServiceManager的功能。
同樣,我們建立了MediaPlayerService即BnMediaPlayerService,那它也應該:
l 開啟binder裝置
l 也搞一個looper迴圈,然後坐等請求
service,service,這個和網路程式設計中的監聽socket的工作很像嘛!
好吧,既然MediaPlayerService的建構函式沒有看到顯示的開啟binder裝置,那麼我們看看它的父類即BnXXX又到底幹了些什麼呢?
3.1 MediaPlayerService開啟binder
classMediaPlayerService : public BnMediaPlayerService
//MediaPlayerService從BnMediaPlayerService派生
//而BnMediaPlayerService從BnInterface和IMediaPlayerService同時派生
classBnMediaPlayerService: public BnInterface<IMediaPlayerService>
{
public:
virtual status_t onTransact( uint32_t code,
constParcel& data,
Parcel*reply,
uint32_t flags= 0);
};
看起來,BnInterface似乎更加和開啟裝置相關啊。
template<typenameINTERFACE>
class BnInterface :public INTERFACE, public BBinder
{
public:
virtual sp<IInterface> queryLocalInterface(const String16&_descriptor);
virtual const String16& getInterfaceDescriptor() const;
protected:
virtual IBinder* onAsBinder();
};
兌現後變成
class BnInterface :public IMediaPlayerService, public BBinder
BBinder?BpBinder?是不是和BnXXX以及BpXXX對應的呢?如果是,為什麼又叫BBinder呢?
BBinder::BBinder()
: mExtras(NULL)
{
//沒有開啟裝置的地方啊?
}
完了?難道我們走錯方向了嗎?難道不是每個Service都有對應的binder裝置fd嗎?
.......
回想下,我們的Main_MediaService程式,有哪裡開啟過binder嗎?
int main(int argc,char** argv)
{
//對啊,我在ProcessState中不是開啟過binder了嗎?
sp<ProcessState> proc(ProcessState::self());
sp<IServiceManager> sm =defaultServiceManager();
MediaPlayerService::instantiate();
......
3.2 looper
啊?原來開啟binder裝置的地方是和程序相關的啊?一個程序開啟一個就可以了。那麼,我在哪裡進行類似的訊息迴圈looper操作呢?
...
//難道是下面兩個?
ProcessState::self()->startThreadPool();
IPCThreadState::self()->joinThreadPool();
看看startThreadPool吧
voidProcessState::startThreadPool()
{
...
spawnPooledThread(true);
}
voidProcessState::spawnPooledThread(bool isMain)
{
sp<Thread> t = newPoolThread(isMain);isMain是TRUE
//建立執行緒池,然後run起來,和java的Thread何其像也。
t->run(buf);
}
PoolThread從Thread類中派生,那麼此時會產生一個執行緒嗎?看看PoolThread和Thread的構造吧
PoolThread::PoolThread(boolisMain)
: mIsMain(isMain)
{
}
Thread::Thread(boolcanCallJava)//canCallJava預設值是true
: mCanCallJava(canCallJava),
mThread(thread_id_t(-1)),
mLock("Thread::mLock"),
mStatus(NO_ERROR),
mExitPending(false), mRunning(false)
{
}
喔,這個時候還沒有建立執行緒呢。然後呼叫PoolThread::run,實際呼叫了基類的run。
status_tThread::run(const char* name, int32_t priority, size_t stack)
{
bool res;
if (mCanCallJava) {
res = createThreadEtc(_threadLoop,//執行緒函式是_threadLoop
this, name, priority, stack,&mThread);
}
//終於,在run函式中,建立執行緒了。從此
主執行緒執行
IPCThreadState::self()->joinThreadPool();
新開的執行緒執行_threadLoop
我們先看看_threadLoop
intThread::_threadLoop(void* user)
{
Thread* const self =static_cast<Thread*>(user);
sp<Thread>strong(self->mHoldSelf);
wp<Thread> weak(strong);
self->mHoldSelf.clear();
do {
...
if (result && !self->mExitPending){
result = self->threadLoop();哇塞,呼叫自己的threadLoop
}
}
我們是PoolThread物件,所以呼叫PoolThread的threadLoop函式
virtualbool PoolThread ::threadLoop()
{
//mIsMain為true。
//而且注意,這是一個新的執行緒,所以必然會建立一個
新的IPCThreadState物件(記得執行緒本地儲存嗎?TLS),然後
IPCThreadState::self()->joinThreadPool(mIsMain);
return false;
}
主執行緒和工作執行緒都呼叫了joinThreadPool,看看這個幹嘛了!
voidIPCThreadState::joinThreadPool(bool isMain)
{
mOut.writeInt32(isMain ? BC_ENTER_LOOPER :BC_REGISTER_LOOPER);
status_t result;
do {
int32_t cmd;
result = talkWithDriver();
result = executeCommand(cmd);
}
} while (result != -ECONNREFUSED&& result != -EBADF);
mOut.writeInt32(BC_EXIT_LOOPER);
talkWithDriver(false);
}
看到沒?有loop了,但是好像是有兩個執行緒都執行了這個啊!這裡有兩個訊息迴圈?
下面看看executeCommand
status_tIPCThreadState::executeCommand(int32_t cmd)
{
BBinder*obj;
RefBase::weakref_type* refs;
status_t result = NO_ERROR;
caseBR_TRANSACTION:
{
binder_transaction_data tr;
result = mIn.read(&tr,sizeof(tr));
//來了一個命令,解析成BR_TRANSACTION,然後讀取後續的資訊
Parcel reply;
if (tr.target.ptr) {
//這裡用的是BBinder。
sp<BBinder>b((BBinder*)tr.cookie);
const status_t error =b->transact(tr.code, buffer, &reply, 0);
}
讓我們看看BBinder的transact函式幹嘛了
status_tBBinder::transact(
uint32_t code, const Parcel& data,Parcel* reply, uint32_t flags)
{
就是呼叫自己的onTransact函式嘛
err= onTransact(code, data, reply, flags);
return err;
}
BnMediaPlayerService從BBinder派生,所以會呼叫到它的onTransact函式
終於水落石出了,讓我們看看BnMediaPlayerServcice的onTransact函式。
status_tBnMediaPlayerService::onTransact(
uint32_t code, const Parcel& data,Parcel* reply, uint32_t flags)
{
//BnMediaPlayerService從BBinder和IMediaPlayerService派生,所有IMediaPlayerService
//看到下面的switch沒?所有IMediaPlayerService提供的函式都通過命令型別來區分
//
switch(code) {
case CREATE_URL: {
CHECK_INTERFACE(IMediaPlayerService, data, reply);
create是一個虛擬函式,由MediaPlayerService來實現!!
sp<IMediaPlayer> player = create(
pid, client, url,numHeaders > 0 ? &headers : NULL);
reply->writeStrongBinder(player->asBinder());
return NO_ERROR;
} break;
其實,到這裡,我們就明白了。BnXXX的onTransact函式收取命令,然後派發到派生類的函式,由他們完成實際的工作。
說明:
這裡有點特殊,startThreadPool和joinThreadPool完後確實有兩個執行緒,主執行緒和工作執行緒,而且都在做訊息迴圈。為什麼要這麼做呢?他們引數isMain都是true。不知道google搞什麼。難道是怕一個執行緒工作量太多,所以搞兩個執行緒來工作?這種解釋應該也是合理的。
網上有人測試過把最後一句遮蔽掉,也能正常工作。但是難道主執行緒提出了,程式還能不退出嗎?這個...管它的,反正知道有兩個執行緒在那處理就行了。
四 MediaPlayerClient
這節講講MediaPlayerClient怎麼和MediaPlayerService互動。
使用MediaPlayerService的時候,先要建立它的BpMediaPlayerService。我們看看一個例子
IMediaDeathNotifier::getMediaPlayerService()
{
sp<IServiceManager> sm =defaultServiceManager();
sp<IBinder> binder;
do {
//向SM查詢對應服務的資訊,返回binder
binder =sm->getService(String16("media.player"));
if (binder != 0) {
break;
}
usleep(500000); // 0.5 s
} while(true);
//通過interface_cast,將這個binder轉化成BpMediaPlayerService
//注意,這個binder只是用來和binder裝置通訊用的,實際
//上和IMediaPlayerService的功能一點關係都沒有。
//還記得我說的Bridge模式嗎?BpMediaPlayerService用這個binder和BnMediaPlayerService
//通訊。
sMediaPlayerService =interface_cast<IMediaPlayerService>(binder);
}
return sMediaPlayerService;
}
為什麼反覆強調這個Bridge?其實也不一定是Bridge模式,但是我真正想說明的是:
Binder其實就是一個和binder裝置打交道的介面,而上層IMediaPlayerService只不過把它當做一個類似socket使用罷了。我以前經常把binder和上層類IMediaPlayerService的功能混到一起去。
當然,你們不一定會犯這個錯誤。但是有一點請注意:
4.1 Native層
剛才那個getMediaPlayerService程式碼是C++層的,但是整個使用的例子確實JAVA->JNI層的呼叫。如果我要寫一個純C++的程式該怎麼辦?
int main()
{
getMediaPlayerService();直接呼叫這個函式能獲得BpMediaPlayerService嗎?
不能,為什麼?因為我還沒開啟binder驅動吶!但是你在JAVA應用程式裡邊卻有google已經替你
封裝好了。
所以,純native層的程式碼,必須也得像下面這樣處理:
sp<ProcessState>proc(ProcessState::self());//這個其實不是必須的,因為
//好多地方都需要這個,所以自動也會建立.
getMediaPlayerService();
還得起訊息迴圈吶,否則如果Bn那邊有訊息通知你,你怎麼接受得到呢?
ProcessState::self()->startThreadPool();
//至於主執行緒是否也需要呼叫訊息迴圈,就看個人而定了。不過一般是等著接收其他來源的訊息,例如socket發來的命令,然後控制MediaPlayerService就可以了。
}
五實現自己的Service
好了,我們學習了這麼多Binder的東西,那麼想要實現一個自己的Service該咋辦呢?
如果是純C++程式的話,肯定得類似main_MediaService那樣幹了。
int main()
{
sp<ProcessState>proc(ProcessState::self());
sp<IServiceManager>sm = defaultServiceManager();
sm->addService(“service.name”,newXXXService());
ProcessState::self()->startThreadPool();
IPCThreadState::self()->joinThreadPool();
}
看看XXXService怎麼定義呢?
我們需要一個Bn,需要一個Bp,而且Bp不用暴露出來。那麼就在BnXXX.cpp中一起實現好了。
另外,XXXService提供自己的功能,例如getXXX呼叫
5.1 定義XXX介面
XXX介面是和XXX服務相關的,例如提供getXXX,setXXX函式,和應用邏輯相關。
需要從IInterface派生
class IXXX: publicIInterface
{
public:
DECLARE_META_INTERFACE(XXX);申明巨集
virtualgetXXX() = 0;
virtualsetXXX() = 0;
}這是一個介面。
5.2 定義BnXXX和BpXXX
為了把IXXX加入到Binder結構,需要定義BnXXX和對客戶端透明的BpXXX。
其中BnXXX是需要有標頭檔案的。BnXXX只不過是把IXXX介面加入到Binder架構中來,而不參與實際的getXXX和setXXX應用層邏輯。
這個BnXXX定義可以和上面的IXXX定義放在一塊。分開也行。
class BnXXX: publicBnInterface<IXXX>
{
public:
virtual status_t onTransact( uint32_t code,
constParcel& data,
Parcel*reply,
uint32_tflags = 0);
//由於IXXX是個純虛類,而BnXXX只實現了onTransact函式,所以BnXXX依然是
一個純虛類
};
有了DECLARE,那我們在某個CPP中IMPLEMNT它吧。那就在IXXX.cpp中吧。
IMPLEMENT_META_INTERFACE(XXX,"android.xxx.IXXX");//IMPLEMENT巨集
status_t BnXXX::onTransact(
uint32_t code, const Parcel& data,Parcel* reply, uint32_t flags)
{
switch(code) {
case GET_XXX: {
CHECK_INTERFACE(IXXX, data, reply);
讀請求引數
呼叫虛擬函式getXXX()
return NO_ERROR;
} break; //SET_XXX類似
BpXXX也在這裡實現吧。
class BpXXX: publicBpInterface<IXXX>
{
public:
BpXXX(const sp<IBinder>& impl)
: BpInterface< IXXX >(impl)
{
}
vituralgetXXX()
{
Parcel data, reply;
data.writeInterfaceToken(IXXX::getInterfaceDescriptor());
data.writeInt32(pid);
remote()->transact(GET_XXX, data,&reply);
return;
}
//setXXX類似
至此,Binder就算分析完了,大家看完後,應該能做到以下幾點:
l 如果需要寫自己的Service的話,總得知道系統是怎麼個呼叫你的函式,恩。對。有2個執行緒在那不停得從binder裝置中收取命令,然後呼叫你的函式呢。恩,這是個多執行緒問題。
l 如果需要跟蹤bug的話,得知道從Client端呼叫的函式,是怎麼最終傳到到遠端的Service。這樣,對於一些函式呼叫,Client端跟蹤完了,我就知道轉到Service去看對應函式呼叫了。反正是同步方式。也就是Client一個函式呼叫會一直等待到Service返回為止。