1. 程式人生 > 實用技巧 >2020秋招面經

2020秋招面經

2020.7.24 騰訊一面 40min

先做個自我介紹吧

xgboost 怎麼計算特徵重要性??前5層是什麼??怎麼排序特徵重要性的??

bert的結構,過程詳細講一下

你的專案中bert重新訓練了嗎?講一下具體過程。你在哪弄的伺服器?

輸入是什麼??emebedding+seg+pos三者相加還是級聯,維度變了嗎?

postional encoding是怎麼設計的?絕對位置還是相對位置?為什麼這麼設計?

BERT被設計用來處理長度為512的輸入序列。作者通過讓BERT學習每個位置的向量表示來包含輸入序列的順序特徵。這意味著Position嵌入層是一個大小為(512,768)的查詢表,其中第一行是第一個位置上的任意單詞的向量表示,第二行是第二個位置上的任意單詞的向量表示,等等。因此,如果我們輸入“Hello world”和“Hi there”,“Hello”和“Hi”將具有相同的Position嵌入,因為它們是輸入序列中的第一個單詞。同樣,“world”和“there”的Position嵌入是相同的。

  • token嵌入,形狀(1,n, 768),這只是詞的向量表示
  • Segment嵌入,形狀(1,n, 768),這是向量表示,以幫助BERT區分成對的輸入序列。
  • Position嵌入,形狀(1,n, 768),讓BERT知道其輸入具有時間屬性。

對這些表示進行元素求和,生成一個形狀為(1,n, 768)的單一表示。這是傳遞給BERT的編碼器層的輸入表示。

self-attention機制詳細講一下。

spark中action和transformation區別是什麼??spark的惰性計算是什麼/?

1.transformation是得到一個新的RDD,方式很多,比如從資料來源生成一個新的RDD,從RDD生成一個新的RDD

2,action是得到一個值,或者一個結果(直接將RDDcache到記憶體中)

所有的transformation都是採用的懶策略,就是如果只是將transformation提交是不會執行計算的,計算只有在action被提交的時候才被觸發。

從執行層面來看,Transformation實際上是一種鏈式的邏輯Action,記錄了RDD演變的過程。Action則是實質觸發Transformation開始計算的動作,由於在每個Transformation的過程中都有記錄,所以每個RDD是知道上一個RDD是怎樣轉變為當前狀態的,所以如果出錯就可以很容易的重新演繹計算過程。

一個完整的RDD任務由兩部分組成:Transformation和 Action。Transformation用於對RDD的建立,還可以把老的RDD通過Transformation來生成新的RDD。例如,map就 是一種transformation操作,它用於將已有RDD的每個元素傳入一個自定義的函式,並得到一個新的元素,然後將所有的新元素組成一個新的 RDD。但RDD一大特性是延遲(lazy)計算,即縱使你執行這些Transformation操作,這些操作也不會執行。換句話說, transformation操作不會觸發spark程式執行的,它們只是先記錄了對RDD所做的一系列操作,只有之後碰上一個action操作,那麼前 面所有的transformation才會執行。collect和reduce就是action操作。

lstm中輸入維度是5,隱含層維度是20,序列長度是10,一個計算單元怎麼算的,維度是多少?

那講一下lstm吧,三個門,那三個門的維度怎麼算的???

超引數的個數計算如下:假設inputsize為 [公式] ,hidden_size為 [公式] ,不使用peephole,bidirectional,且使用bias。輸入門,輸出門,遺忘門和cell_state引數個數均為 [公式] 。總引數個數為 [公式]

4 * 【20*(5+20)+20】

img

2020.7.29 華為一面 1h 20min

自我介紹 – 可以,講的簡明扼要哈。。要求紮實的綜合能力。學習能力。我不介意你的專業,公司會有點介意,但是跨界大佬很多,你的對手是他們,你要怎樣打敗他們。我們是粵港澳優招。

紮實的基礎資料結構與演算法:分而治之和減而知之,知道下標為10,求連結串列,陣列,二叉樹的複雜度

連結串列,二叉樹,堆,棧等的存、取資料的時間複雜度:參考:https://www.jianshu.com/p/8f1d8d1ed82d

講一下你對機器學習的理解,優劣勢,和趨勢??

講一下你的學習歷程。

手撕程式碼:求最長公共子串的長度及打印出所有最長公共子串。半小時

如果不能做nlp演算法,有其他研發崗位你願意做嗎?先有廣度,積累,再談深度。

不只是會用機器學習演算法,原理也懂點,還要更加會用於工業場景,如何應用???

你有什麼想要知道的嗎?

2020.8.1 深信服大牛批 一面 40min

自我介紹

獲得過什麼獎學金,排名。

神經網路啟用函式,各自優缺點

講一下實習專案的過程吧,bert怎麼用進來的,

講一下LDA,(專案裡面寫了)

手撕程式碼;成績排名輸出。

2020.8.4 華為二面1h

自我介紹,重點介紹下專案經驗。

問了專案中rouge,LDA,dilicret分佈,專案中評判分數好壞的標準。(專案裡面寫了)

你為什麼轉nlp?優勢?

手撕:給你一個數組,讓它變為5*5矩陣,然後順時針螺旋輸出,並最後變為陣列打印出來!要求複雜度低。

2020.8.5 貪心科技一面 1h

手撕:編輯距離,快速排序+歸併排序+歸排序三選一

快排最差的時間複雜度,快排怎麼優化?n2,隨機快速排序,,,

雜湊表怎麼實現的?雜湊函式原理??怎麼防止衝突?連結串列法最差時間複雜度,怎麼優化??

動態資料流中,怎麼記錄最大的k個數,要求空間複雜度最低,我說用棧,那怎麼具體操作?兩個棧怎麼維持?

還可以用堆,那你堆的複雜度怎麼計算?

rf和gbdt的區別與聯絡?從方差和偏差角度??gbdt裡面怎麼計算梯度的??

word2vec原理??相比one-hot兩個優勢在哪裡?反義詞如男和女的相似度是多少,為啥是正1,不是-1,

有一個缺陷:同義詞與反義詞的上下文是相近的,因此有著相似的詞向量,但兩者語義差別很大,作者提出了一種方法改善

word2vec怎麼來的??比tf-ifdf好在哪裡?

word2vec怎麼訓練的?最終輸出的是什麼??給一個文字給你,怎麼用word2vec訓練??

你專案裡講到LDA,你講一下LDA吧,狄利克雷分佈是啥??

HMM的兩個假設是???齊次morkov假設:t時刻的狀態只與t-1的狀態有關,觀測獨立性假設:任意時刻的觀測只依賴於該時刻的morkov連狀態,與其他觀測及狀態無關。

交叉熵的公式是什麼??為啥要用交叉熵?

2020.8.10 貪心科技二面 1h

上來手撕:所有最長遞增子序列中字典序和最小的序列,合併兩個排序的連結串列(過去了45分鐘。。)

自我介紹,你的職業規劃??你為什麼選nlp??

二叉樹的遍歷方式??後序遍歷的非遞迴怎麼操作??跟右左反轉

你講一個你掌握的機器學習演算法吧。transformer、、、挑了最難的、、

transformer的encoder和decoder區別??他為啥比rnn好?rnn存在什麼問題??為啥transformer不會梯度消失?transformer 的multi-head程式碼怎麼實現的?如果詞嵌入768維,multi-head後是多少?

self-attention的複雜度是多少?為什麼是n2d,d代表什麼??n是序列序列的矩陣,d是詞嵌入維度n<<d就很快,並行是在哪裡?

你有什麼要問我的嗎?

首先,6個大的模組之間是序列的,一個模組計算的結果做為下一個模組的輸入,互相之前有依賴關係。

從每個模組的角度來說,注意力層和前饋神經層這兩個子模組單獨來看都是可以並行的,不同單詞之間是沒有依賴關係的。當然對於注意力層在做 attention 的時候會依賴別的時刻的輸入,不過這個只需要在計算之前就可以提供。然後注意力層和前饋神經層之間是序列,必須先完成注意力層計算再做前饋神經層。

2020.8.18 位元組一面 1h

自我介紹

你用什麼語言?c++和python區別?

bert怎麼取第三層的?你做了哪些?只是fine-tune?mean-max-pooling,bert跑了多少輪?

講講專案裡的banditsum,

手撕:最長上升子序列!

你有什麼要問我的嗎?

2020.8.21 阿里一面 50min

自我介紹

專案裡面的文字生成指什麼,具體說說。LDA你說說,你怎麼聚合中心句的?lda是判別模型嗎?

你講講text-rank,權重怎麼修改的?最大邊緣相關演算法。bert怎麼微調的??

說說強化學習的回報函式,機制是啥?怎麼計算回報的?

bert中的mean-max-pooling模型是啥?為啥要用l2不用l1,為啥不直接用cls??

手撕:不重複子集!有沒有更簡單的方法??

你有什麼要問我的嗎?

2020.8.25 美團一面 1h

自我介紹。專案實習介紹。專案的來源。bert的結構、過程。競賽的人數,貢獻。

bert改進的模型有哪些?

django 與flask區別、get和post區別

有看過模型上線後的併發量嗎?使用者的訪問量嗎?

tf-idf公式、linux怎麼檢視python任務ps -ef |grep python、linux怎麼檢視gpu使用情況lspci | grep -i nvidia

梯度消失??怎麼解決??

lgb與xgb區別、xgb與gbdt區別

pytorch的矩陣乘法、矩陣點積,點乘。叉乘。逆矩陣。中心極限定理。大數定理。

pytorch怎麼設定顯示卡數,驅動cuda裝過嗎?

batch-normalization作用

python的裝飾器生成器迭代器,執行緒與程序區別。程序排程的方法。tcp三次握手。

hashmap,hash散列表

手撕:mysql輸出所有表1中A的購物記錄。

你目前面試過哪些公司?你家是上饒哪裡的??

你有什麼要問我的嗎?

[外鏈圖片轉存失敗,源站可能有防盜鏈機制,建議將圖片儲存下來直接上傳(img-t3UN0Eu9-1602920451505)(C:\Users\VULCAN\AppData\Roaming\Typora\typora-user-images\image-20200825161315268.png)]

2020.9.1 華宇 一面25min

問專案+實習

2020.9.3 多益網路 一面43min

自我介紹

專案介紹

講一下textrank

對fine-tune的理解,還有其它方式嗎?

決策樹的構造過程

為啥要用交叉熵不用最小均方差?

tfidf缺點

fasttext的優缺點

什麼情況下考慮分詞?

以概率P產生0,概率(1-P)產生1,請問能否利用這個 隨機數發生器,構造出新的發生器,以12的概率產生0和1,請寫明結論及推理過程。

你怎麼網際網路公司普遍加班的??對加班995的看法;

你有什麼要問我的嗎?

2020.9.7 多益網路 二面hr面 18min

Q1.自我介紹
Q2.瞭解多益網路嗎,為什麼投多益

神武夢想世界相繼大成,最讓我欣賞的是多益其實是未雨綢繆,居安思危,對研發投入很大,可以為我提供一個廣闊的平臺,學到真正的技術,可以實現自己的人生價值,希望我也能進入多益,為多益的發展做出一些貢獻!
Q3.最認同多益網路的三點:個人發展前景。公司平臺和氛圍,能否真正學到技術。
Q4.認為產品經理必備的三點品質:同理心、溝通能力、邏輯能力
Q5.你這三點品質怎麼樣:
Q6.團隊合作能力怎麼樣?在團隊中的角色?為什麼沒當組長
Q8.說一個工作或生活中遇到的困難的事情,怎麼解決的?
Q11.如果上司讓你週末替他取快遞但你計劃去健身,為什麼選擇“不高興但還是去做”?如果不是取快遞而是工作上的事情呢?
Q12.為什麼不支援二胎政策
Q13.為什麼想到廣州?父母支援嗎?我有女朋友,就在廣州!
Q14.還收到那些公司的面試通知

Q15.怎麼看待996或者加班

我個人覺得適當加班是必要的,特別是做自己喜歡做的專案時候,就是專案能激勵我們,而不是被迫去做這些事,而且我現在需要花更多的時間去積累經驗,去學習。

很多人都喜歡優先的工作,但我覺得優先會使人墮落,我希望能夠實現自己的目標,人生價值,我願意付出更多的努力去奮鬥,我很樂意接受這樣的工作,,我讀研9 111 7,讀研也很辛苦,但是我都堅持下來了!在實習。。。有付出才有回報。

Q16. 反問環節:在多益的工作體驗怎麼樣,覺得多益怎麼樣?公司相關的業務以及主要i的業務是在幾塊??

投了那些公司,面了那些offer,有沒有兄弟姐妹,父母對你有哪些期望?

三個詞崗位優點,缺點:效率高,有幹勁,刻苦i抗壓,性格開朗,責任心強。不注重穿著,不善於拒絕別人, 有時會忽略細節。·

一次團隊合作的經歷,自己擔任什麼角色:

怎麼看待其他人,拖後腿的人:態度問題,能力問題?

期望薪資:經過我從其他渠道的一些瞭解,我覺得15k左右可以接受的

加班薪資:個人會期望公司適當有點補助,或者其他的獎勵。

目前有到談薪的公司嗎:沒有

怎麼和組裡人協作:

1.共同的目標du;.相互信任;強烈的責任感;瞭解團隊成員的性格品質,團隊強調的是協同工作,所以團隊的工作氣氛很重要,它直接影響團隊的工作效率。沒有完美的個人,在一個團隊中,每個成員都有自己的優點缺點。作為團隊的一員應該主動去尋找團隊成員的優點和積極品質,學習它,並克服自己的缺點和消極品質,讓它在團隊合作中被弱化甚至被消滅。如果團隊的每位成員,都主動去尋找其它成員的積極品質,那麼團隊的協作就會變得很順暢,工作效率就會提高。

怎麼看待組裡人:和睦相處,做知心朋友,家

舉個例子講一下你遇到的困難,怎麼解決的:

領導給你一個方案,但你有更好的方案怎麼辦:

遇到這種情況,我首先要想清楚我的這個方案是真的好還是隻是我認為好,因為作為一個領導,站得高看得遠,在巨集觀上對一個問題的把握更加的全面,看問題更加的透徹,對方案的執行情況看的也更遠,所以,我要站在一個更高的層次來評估我的這個方案,同時要注意我的方案的可執行性。

其次,我會找一個合適的時間與部門的其他同事,特別是老同志加強交流,聽聽他們的意見。在綜合考慮的基礎上,如果我覺得我的這個方案還是比較好的話,那麼我會找一個恰當的時間,私下裡把我的這個方案報給領導,並把我認為我的這個方案的好的地方著重提出來供領導參考。當然,最終的方案是由領導來定奪的。我相信,領導會很高興看到他的下屬向他提建議的。而作為一個下屬,在工作中,如果有不同的意見,也應該負責任的通過合適的方式把自己的想法向領導反映,這是構建一個和諧有效團隊的基礎。

怎麼看待中國二胎政策:緩解老齡化,抑制男女比例失衡。但是同時增大了就業壓力,加重個人家庭負擔,在如今高物價時代,同時子女的教育也成了問題。我個人看來,二胎政策只是放款了要求,至於要不要生二胎,還是看個人還有他的家庭情況,我自己的話傾向於生一胎,這樣可以留給更多的時間給工作和生活,也不會有很大的壓力吧。

公司線上出了問題,你會回來幫助解決嗎: 這是必須的,公司的利益也關乎個人的利益,

父母對你工作的期望:有一個很好的工作,有一番作為!

平衡生活與工作:

  1. 提高工作效率。工作時就全身心投入工作中去。高效率的完成任務。不將工作帶到生活中去。
  2. 明確自己的人生目標。努力工作是為了提高生活品質更好的生活
  3. 因此明確自己的人生目標,確定每個時期的重點。達到工作和生活的平衡。
  4. 學會生活,放鬆身心。利用假期給自己的身心放個假。和家人、朋友一起出遊。休息時好好休息,不要被工作打擾。
  5. 當自己或家人身體出現問題。不論多麼重要的工作都要先暫停。身體健康更加重要。

2020.9.10 美的 一面 30min

自我介紹,專案介紹。

為什麼轉nlp?怎麼學的?看過哪些書??

常見啟用函式,sigmoid和relu優缺點。

怎麼吧影象中識別出來的錯別字進行矯正?比如美的沒有識別出來怎麼矯正?用nlp的方法。

怎麼比較兩個字串的不同?不用深度學習。

2020.9.12 1:30 亞控科技 一面 30min

自我介紹,專案介紹

你知道我們公司是做什麼的嗎?

你的期望薪資?

你能解接受出差嗎?

你對崗位地點的要求。

你有什麼要問我的嗎?

2020.9.12 2:40 深信服正式批 一面 30min

自我介紹,你為啥轉演算法?為啥研究生還在學材料?

transformer 和rnn,lstm這些的區別在哪裡,好在哪裡?

bert和gpt區別,gpt3哪裡進行了改進?不用微調,Bert和gpt2需要微調。

你講一下你對傳統機器學習和深度學習的理解吧。

你有什麼要問我的嗎?

手撕程式碼(共享螢幕):組合總和2

2020.9.12 3:30 同花順 一面 30min

執行緒與記憶體地址。

有1-2n個座位,要求夫妻坐一起,有幾種方式??

n對夫婦任意在一排2n個椅子上就坐,有(2n)!種坐法.若所有夫婦都相鄰,把夫婦兩人看做一個整體,有n!種坐法

兩人可互相交換座位,所以共2n*n!種故“有夫婦不相鄰的”的概率為1-2n*n!/(2n)!=1-1/(2n-1)!

2個人擲硬幣,第一個人丟擲正面硬幣的概率是多少?

把兩個人各拋一次硬幣記作一輪遊戲,第一個人正面發生在: 第一輪的概率1/2 第二輪的概率(1/2)^3 第三輪的概率1/21/21/21/21/2 …… 一直進行下去, 按等比數列求和 (1/2-0)/(1-1/4)=2/3.

機器學習的基本流程?

缺失值怎麼處理

你有沒有從0-1實現過深度學習的某個模型?

如何看待adaboost和rf?區別?哪個能並行?

常見分類傳統機器學習模型及其應用場景?

過擬合和欠擬合。分別怎麼解決?為啥l1能使資料稀疏?

從一個二維矩陣中搜索一個字串,怎麼做?時間複雜度是多少?

2020.9.14 11:00 深信服 二面 20min

自我介紹,

專案的難點,怎麼解決的

如果有100w個域名,怎麼檢查是否符合拼寫規範?

你覺得n-gram可行嗎?真不會

你有沒有遇到過工程化方面的問題?

2020.9.15 11:00 瑛太萊 一面 1h15min

自我介紹,然後開始了,由機器學習到NLP再到專案。

你介紹下基本的線性模型有哪些?

你介紹下LR和SVM區別,

SVM核函式有哪些?核函式有啥作用?

HMM介紹下,CRF介紹下

HMM怎麼用於分詞,怎麼做的?引數怎麼求?

CRF可以用於哪些場景?

命名實體識別你知道嗎?怎麼做的?

介紹下rnn

lstm比rnn好在哪?具體怎麼實現的?

lstm中輸入維度是10,輸出層是維度20,一個計算單元怎麼算的,維度是多少?

你知道那些聚類方法??

kmeans優缺點??怎麼優化,你聽過kmeans++嗎?k值怎麼確定?

介紹下cnn,cnn卷積層池化層有啥作用?

cnn, 怎麼用到text裡??textcnn。

你講下textcnn

你講下word2vec,word2vec怎麼得到詞嵌入向量的?怎麼計算的?

介紹下transformer

餘弦相似度和歐氏距離的比較??

lstm-attention,有幾類?你講下attention機制

介紹下transformer,怎麼實現殘差的?殘差有啥作用?

介紹下self-attention。

你講下layerNormalization吧,BN和LN特點?如果BN太小,會怎樣?為啥?

bert在transformer做了那些改進

問完技術問專案:

具體講一下你的實習專案吧,文字摘要生成??怎麼優化加速?

聽過Kd tree嗎?

你講下你的關於bert分類的專案吧,bert有幾個transformer block

AUC是啥?和F1 score區別?為啥能適用於不平衡樣本?

反問環節:有幾面??公司目前的主要業務板塊有哪些?智慧客服,聊天機器人,機器翻譯。跨境電商。

2020.9.16 網宿科技 一面 30min

作業系統+計網+資料庫+資料結構與演算法

執行緒間的通訊,哪種最快?

類的繼承?super用過嗎?

陣列和連結串列的區別?優缺點?

連結串列中有1234一共4個節點,已經知道2的地址,怎麼在O(1)複雜度內刪除這個2節點?

常見排序演算法,快速排序的思路?

怎麼優化快速排序中選基準數?

python的GIL鎖,為啥有這個鎖,其它語言就沒有?

python裝飾器?

tcp和udp區別及應用場景?

資料庫中主鍵和外來鍵是啥?

手撕:有效括號。

2020.9.17 同花順 二面 30min

自我介紹,專案介紹

具體談專案

2020.9.18 蘇寧 一面 13min

自我介紹,專案介紹

具體談專案

你知道attention有哪些嗎?

2020.9.19 13:45 融360一面 30min

自我介紹,專案介紹

我們不搞nlp,我說我搞ML也可以

說一下bert

位置編碼有哪些方式?

xgboost和gbdt區別

LR為啥用對數似然函式,

你做過哪些關於資料處理的工作?

ID3,C4.5,CART區別?除了資訊增益這些。

手撕:最長上升子序列。

2020.9.19 14:50 融360二面 30min

xgboost怎麼計算特徵重要性,怎麼排序的?

什麼是梯度消失,怎麼解決?使用 ReLU、LReLU、ELU、maxout 等啟用函式 ,使用批規範化 殘差結構

xgboost怎麼並行的?xgboost有哪些重要引數需要調?樹的深度一般幾層?

你說話平時都這麼快嗎?

手撕:股票最大利潤,只能購買和賣出一次

手撕: 圓圈中最後剩下的數字

你linux熟嗎?

會sql嗎?手撕:從表中找出每門課都大於80分的學生姓名。

熟悉map reduce嗎?map reduce遇到資料不平衡怎麼處理?

團隊協作?個人優劣勢?

2020.9.19 16:05 融360三面hr面 30min

你遇到的困難,

你認為材料和計算機的相關性?材料對你的幫助。

專案是你主導完成的嗎?團隊怎麼協作?

你的優缺點。

你的期望薪資

你的期望工作地點。

你有沒有壓力比較大的時候?

實習怎麼進的那家公司?

2020.9.22 16:05 平安科技一面 30min

bert的缺點及改進方法,問專案。手撕:求眾數。

2020.9.24 微步線上一面 40min

偏差和方差,降維方法,整合方法,xgboost 優點,神經網路模型,優化方法,word2vec,skip-gram,字典樹深度學習框架,二叉搜尋樹,最大的k個數,陣列中只有一個數字出現了一次,其他偶數次。排序演算法有哪些,hadoop,linux查詢某個檔案的某個特定字,知道嗎,反問。

2020.9.25 微步線上二面 40min

深挖專案簡歷,最後你有什麼要補充的嗎?

2020.9.29 11:00跟誰學一面 30min

深挖專案簡歷LDA,textrank,bert,語言模型定義,transformer,self-attention,multid-head作用學習到字,詞,不同語法結構的資訊表示,不同空間對映,bert怎麼用於句子嵌入。

2020.9.29 17:00 途虎養車二面 30min

深挖專案簡歷:LDA輸出的是概率,怎麼拿來進行主題分析,textrank怎麼迭代計算權重,bert結構,

2020.9.29 18:30 微步線上三面 20min

2020.9.30 瑛太萊二面 30min

2020.9.30 微步線上四面hr面 25min

你的缺點,你為啥從材料轉演算法,你的業餘活動,你的性格,你的團隊協作,你有啥要問的嗎?

2020.10.9 萬得一面 60min

參考:

[外鏈圖片轉存失敗,源站可能有防盜鏈機制,建議將圖片儲存下來直接上傳(img-GOlpu65Z-1602920451506)(C:\Users\VULCAN\AppData\Roaming\Typora\typora-user-images\image-20201007202117234.png)]

2020.10.9 萬得二面 50min

二面問的同一面差不多,問專案較深,深挖簡歷。

2020.10.12 得物一面 30min

問專案,提取關鍵資訊的模型有哪些,梯度下降為啥能使損失函式下降最快??正則化的一些方法??有啥作用?應用場景?

2020.10.15 最後

收到微步線上的電話,談薪資,接受了!2020.10.16正式收到offer,秋招宣佈結束了!剩下還有融360的oc,不知道會怎樣,不過應該也不會去了。

總結

怎麼說呢?部分大廠都給面試機會了,網際網路大廠包括位元組騰訊阿里美團,可能是我太菜了,一面後就掛了(沒訊息了也認為是掛了)。華為掛在二面。然後中廠包括同花順,蘇寧,平安科技,深信服等都掛在二面了,蘇寧和深信服給我的二面面試體驗賊差,不想面就別給面試機會啊,搞人心態是什麼意思?上一秒說不是很懂 下一秒就變臉了??這種10來分鐘就結束的不用想就是涼透了。然後剩下的主要是一些小廠了,途虎養車,二面掛,多益網路hr面掛,被卡專業了吧,瑛太萊hr面被放鴿子了,給我說有更好的人選了,氣不氣,剩下的基本沒訊息了。、

總體這麼多面試下來,不知不覺的提升,表達能力,對各方面知識的理解能力也都提升了,希望未來也能越來越好!!!