人工智能AI+HR黑科技秘笈_(tái)第1頁
人工智能AI+HR黑科技秘笈_(tái)第2頁
人工智能AI+HR黑科技秘笈_(tái)第3頁
人工智能AI+HR黑科技秘笈_(tái)第4頁
人工智能AI+HR黑科技秘笈_(tái)第5頁
已閱讀5頁,還剩93頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

AI+HR黑科技秘笈A

I

革AI黑科技揭秘AI+HR創(chuàng)新應(yīng)用頂尖科學(xué)家團(tuán)隊(duì)力作e

H

R

學(xué)

品a

i

.

i

f

c

h

a

n

g

e

.

c

o

m前言獻(xiàn)給走在數(shù)字化浪潮前沿的

HR

們,數(shù)字經(jīng)濟(jì)時(shí)代已全面開啟,大數(shù)據(jù)、人工智能、云計(jì)算等新科技推動(dòng)經(jīng)濟(jì)、社會(huì)、企業(yè)發(fā)生翻天覆地的變化,也將賦予人力資本巨大的變革力量。企業(yè)紛紛在尋求智慧變革,人力資源部門是推動(dòng)企業(yè)變革的重要?jiǎng)恿χ唬琀R

也要時(shí)刻隨著時(shí)代和科技的變化而

變化,找到并駕馭合適、高效的智能化工具。在這場(chǎng)浪潮中,思變的企業(yè)和

HR

們已經(jīng)開始尋求變革新路徑。作為人力資本數(shù)字化平臺(tái)和數(shù)字化人才戰(zhàn)略的先行者,e

成科技將始終與您同在,攜手開啟人力資本數(shù)字化新時(shí)代!”本專欄內(nèi)容由

HR圖靈學(xué)院出品,HR圖靈學(xué)院是

e

成科技打造的

HR

領(lǐng)域第一

AI

專欄,希望以此為窗口,向

HR

傳達(dá)專業(yè)的

AI

知識(shí)與信息,賦予人力資本領(lǐng)域變革力量,以

AI

為鑰,攜手

HR

開啟數(shù)字化變革之門!在這里,HR們可以得到前沿技術(shù)思考、行業(yè)技術(shù)干貨、全球

AI

好物、HR+AI

創(chuàng)新應(yīng)用等。前言目錄第一部分

人崗匹配讓

AI

技術(shù)提升人崗匹配效果,我們做了這些探索解鎖這項(xiàng)

AI

黑科技,馬上實(shí)現(xiàn)人崗匹配自由02-0910-17第二部分

人才畫像人才畫像畫得好,數(shù)字化

HR

有妙招18-2324-29第三部分

音視頻面試AI面試官來襲,HR

你準(zhǔn)備好了嗎?第四部分

RPA一文讀懂RPA、AI與HR的關(guān)系真技術(shù)還是偽AI,HR如何選擇合適的智能工具?30-3637-42第五部分

智能聊天機(jī)器人請(qǐng)回答B(yǎng)ERT:HR聊天機(jī)器人強(qiáng)大聊天技能背后的秘密43-51第六部分

人工智能歷史人工智能演義第一回:阿蘭圖靈開山鼻祖,達(dá)特茅斯豪杰聚義人工智能演義第二回:遇險(xiǎn)阻創(chuàng)始人早逝,敢堅(jiān)持三劍客逆襲人工智能演義第三回:一脈相承得失公論,兩度寒冬冷暖自知52-6061-6869-75第七部分

智能職業(yè)發(fā)展規(guī)劃叮,您的智能職業(yè)發(fā)展規(guī)劃師已上線76-8485-94第八部分

人才盤點(diǎn)看過那么多大廠經(jīng)驗(yàn),依然做不好人才盤點(diǎn)?你需要這款A(yù)I利器!1

|

目錄第一部分場(chǎng)景:人崗匹配內(nèi)容:讓

AI

技術(shù)提升人崗匹配效果,我們做了這些探索解鎖這項(xiàng)

AI

黑科技,馬上實(shí)現(xiàn)人崗匹配自由AI

黑科技:Embedding、知識(shí)圖譜(KG)方法、自然語言處理(NLP)、非線性樹模型、deep

模型、BERT、Word2Vec

模型等讓AI技術(shù)提升人崗匹配效果,我們做了這些探索本期和大家討論下

“人崗匹配排序的探索與實(shí)踐”。從人力資源管理的發(fā)展來看,人崗匹配大致經(jīng)歷了三個(gè)階段,“三歷對(duì)照法”、“冰山挖掘法”、“全人匹配法”,而

AI

技術(shù)的引用將為企業(yè)迎來第四個(gè)——“數(shù)據(jù)解剖法”。AI

技術(shù)實(shí)現(xiàn)人崗匹配,離不開數(shù)據(jù)的處理和模型的選擇與訓(xùn)練,看似高深、復(fù)雜的人崗匹配算法模型背后,這一切是怎么實(shí)現(xiàn)的呢?本期院長(zhǎng)就和大家探討下不同模型在人崗匹配實(shí)踐中的創(chuàng)新應(yīng)用?!叭藣徠ヅ洹?/p>

是企業(yè)人力資源管理的核心問題,更是所有

HR

追求的目標(biāo)。毫不夸張地說,“人崗匹配”

是人力資源的起點(diǎn),也是人力資源的核心目標(biāo)之一。本質(zhì)上,企業(yè)和個(gè)人是利益共同體,只有使得組織利益和個(gè)體價(jià)值得到統(tǒng)一,做到

“崗得其人”、“人適其崗”,根據(jù)人不同的素質(zhì)和個(gè)性將其安排在最合適的崗位上,做到

“人盡其才,物盡其用”,才能使人才發(fā)揮最大價(jià)值,同時(shí)激活組織。那么,HR

如何做好人崗匹配呢?以前,在千百萬份簡(jiǎn)歷中篩選人才,是

HR

工作中

“解不開的劫”,每天花費(fèi)大量的時(shí)間和精力對(duì)優(yōu)秀簡(jiǎn)歷和職位信息人工做匹配,不僅消耗著

HR

的積極性,往往結(jié)果也不盡如人意,篩不到合適的人才,難以滿足業(yè)務(wù)部門的需求?,F(xiàn)在,數(shù)字經(jīng)濟(jì)時(shí)代的新技術(shù)給

HR

帶來了更多可能,AI

技術(shù)將助力

HR

實(shí)現(xiàn)智能人崗匹配、大大提升人崗匹配效率與準(zhǔn)確率,將

HR

從機(jī)械、瑣碎的招聘工作中解放出來。2

|

第一部分那么,實(shí)現(xiàn)

AI

人崗匹配背后的依據(jù)和邏輯又是什么呢?

e

成科技基于前沿的自然語言處理技術(shù)和深度學(xué)習(xí)模型,并結(jié)合大量數(shù)據(jù)和知識(shí)圖譜,通過不斷探索和反復(fù)實(shí)踐,形成一套高效的人崗匹配推薦算法系統(tǒng),下面院長(zhǎng)將詳細(xì)為大家介紹這套系統(tǒng)及其背后的邏輯。在人崗匹配的任務(wù)中存在

HR、職位(JD)、簡(jiǎn)歷(CV)三種實(shí)體,人崗?fù)扑]系統(tǒng)中由

HR

發(fā)布職位,根據(jù)發(fā)布職位來推薦簡(jiǎn)歷,該場(chǎng)景中需要優(yōu)化推薦的準(zhǔn)確率、召回率,提升

HR

更高的工作效率,提升崗位和簡(jiǎn)歷的匹配度來減少招聘人才的成本。在經(jīng)典的機(jī)器學(xué)習(xí)排序模型中通常分為兩種:復(fù)雜的人工特征工程

+

簡(jiǎn)單的模型,簡(jiǎn)單的人工特征

+

復(fù)雜的模型。本著該原則我們對(duì)以文本為主的職位和簡(jiǎn)歷對(duì)進(jìn)行了匹配排序?qū)嵺`。01特征為王以

JD

CV

對(duì)為背景,該場(chǎng)景為經(jīng)典的機(jī)器學(xué)習(xí)排序問題,目標(biāo)在于預(yù)測(cè)

JD

CV

是否匹配,數(shù)據(jù)集的采集則是來自我司產(chǎn)品

ATS

平臺(tái),HR

從系統(tǒng)根據(jù)

JD

推薦的

CV

來進(jìn)行選擇,符合要求將要走面試程序的則標(biāo)為

1,否則標(biāo)為

0。2.1

特征介紹常見的

JD

如下圖1

所示,其中包含格式化離散數(shù)據(jù)和整段文本數(shù)據(jù),從整段文本數(shù)據(jù)獲取招聘意圖是提取

JD

特征的重點(diǎn)難點(diǎn)。為了更好的解決該問題,我們分別引入知識(shí)圖譜(KG)方法和自然語言處理(NLP)方法,其中

KG

負(fù)責(zé)去充分提取文本中實(shí)體的關(guān)系和聯(lián)系,NLP

則更好的獲取

JD

本文和

CV

文本相似性信息。因涉及個(gè)人隱私此處不展示

CV

信息。3

|

第一部分圖

1

JD

示例在以

JD

CV

對(duì)是否匹配的背景下,我們將特征主要分為以下幾類:JD

特征:包含地點(diǎn),學(xué)歷硬性要求和利用知識(shí)圖譜中提取的實(shí)體特征如(職能,公司,技能,專業(yè),行業(yè))等;CV

特征:包含性別,年齡,學(xué)歷等基礎(chǔ)信息和從工作經(jīng)歷描述文本中提取的實(shí)體信息,以及文本類特征等。2.2

特征處理>在獲取

JD

CV

的基礎(chǔ)特征之后我們主要將特征主要分為四種類型:ID

離散特征:比如

UID,職能

ID,公司

ID,行業(yè)

ID,技能

ID,專業(yè)

ID

等。硬性離散類特征:除了性別,年齡,工作地點(diǎn)等基礎(chǔ)類型特征,還包含有知識(shí)圖譜提取的實(shí)體之間的關(guān)系特征比如學(xué)校是否匹配,職能(工作職位對(duì)應(yīng)能力)是否匹配等,此處成為

match特征。連續(xù)性特征:除薪資等,還包含有知識(shí)圖譜提取的實(shí)體之間的

graphembedding

vector

相似性值,此處成為

IDsim

特征。Emdedding

特征:包括了

ID

離散特征的

vector,該

vector

有知識(shí)圖譜的

graphembedding

方法產(chǎn)生(如DeepWalk,LINE

)。文本

embedding

特征,該特征以

JD

和CV

對(duì)的方式輸入

DSSM

模型產(chǎn)生

vector。4

|

第一部分在此基礎(chǔ)上我們還加入了相應(yīng)統(tǒng)計(jì)特征,統(tǒng)計(jì)特征主要有強(qiáng)特征的共現(xiàn)特征以及強(qiáng)特征之間的多樣性統(tǒng)計(jì)。特征之間的應(yīng)用以及組合根據(jù)模型不同而展開討論,不同模型對(duì)不同特征的表征能力不同。02模型演變?cè)谀P头矫嬷饕梢苑譃閮蓚€(gè)總方向,分別是非線性樹和

deep

模型的探索,在探索上主要是根據(jù)不同模型的性質(zhì)進(jìn)行特征工程。3.1

非線性樹模型

>

我們主要以

gbdt

為主的樹模型展開特征工程的探索,gbdt

的實(shí)現(xiàn)以xgboost和

lgb

為主。gbdt

模型結(jié)構(gòu)如圖

2

所示,gbdt

為一個(gè)

boosting

模型,通過疊加多個(gè)弱模型來提升擬合能力,根據(jù)

xgboost

模型的優(yōu)缺點(diǎn)我們可以充分挖掘可用特征。圖

2我們?cè)俅握砩弦还?jié)可用特征,主要有

ID

類特征(職能、行業(yè)、公司、技能、專業(yè)等);基本信息匹配特征(年齡,工作經(jīng)驗(yàn),學(xué)校等)該特征為二分類特征,以

JD

CV

ID

類特征是否匹配來構(gòu)建二分類特征(如職能是否匹配等稱為

match

特征),將這兩類統(tǒng)稱為硬性離散類特征;JD

CV

類的

graphembedding

產(chǎn)生

vector

對(duì)計(jì)算余弦值作為連續(xù)特征(稱為IDsim

特征),加上文本相似性特征(稱為

textsim

特征)和薪資組成連續(xù)特征。值得注意的是文

據(jù)

JD

CV

title和

description

個(gè)

掘。考

到xgboost

處理連續(xù)值的缺點(diǎn)我們將連續(xù)值進(jìn)行分桶,桶數(shù)可由某維特征的分布來確定。將

ID

類特征也一同加入到樹模型中,這是考慮到組合特征的業(yè)務(wù)意義。分析特征重要性之后,我們根據(jù)特征現(xiàn)象去做統(tǒng)計(jì)特征,比如出現(xiàn)頻率統(tǒng)計(jì),特征共現(xiàn)統(tǒng)計(jì),多維特征多樣性統(tǒng)計(jì)等操作。相對(duì)應(yīng)的

title

description文本特征也可通過簡(jiǎn)單的加權(quán)命中率來構(gòu)成特征加入到樹模型中??傊畬?shí)驗(yàn)證明

ID

類特征,二分類特征,連續(xù)特征離散化,統(tǒng)計(jì)類特征,以及

embedding

產(chǎn)生的

vector

的交叉特征都會(huì)給模型帶來正向收益。5

|

第一部分3.2

深度模型的探索

>深度模型對(duì)比樹模型更加突出了非線性的擬合能力,以及高階特征的交叉融合功能。但是帶來的弊端就是模型的可解釋性變差,根據(jù)結(jié)果反向特征工程變得困難起來。我們?cè)?/p>

JD和

CV

匹配場(chǎng)景下分別使用了

DNN,Wide&Deep,DeepFM,等模型嘗試。同時(shí)并借鑒了

PNN、DCN、DLRM

DKN

網(wǎng)絡(luò)原理正在適配適合現(xiàn)有數(shù)據(jù)類型的模型。本節(jié)主要簡(jiǎn)要介紹

DNN

Wide&Deep,DeepFM

的使用,再闡述對(duì)現(xiàn)有數(shù)據(jù)的思考。以

YouTube

的經(jīng)典

NN

為開端(如圖

3,引用自相應(yīng)論文),現(xiàn)有的數(shù)據(jù)下如何去使用

DNN

達(dá)到收益正是我們所考慮的。在現(xiàn)有的特征中除了上文提到的二分類特征,embedding

相似性等特征之外我們包含知識(shí)圖譜抽取的實(shí)體

embedding

和文本

embedding。文本

embedding

主要有

DSSM

模型產(chǎn)生,雙塔模型的輸入分別為

JD

title、description,CV

工作經(jīng)驗(yàn)的title、description,雙塔輸出為

JD和

CV

是否匹配。我們以雙塔的每坐塔的最后輸出

vector作為

JD

CV

的表征。本著論文中提到的原理我們?nèi)コ藰淠P椭?/p>

ID

類特征,換成了

ID

對(duì)應(yīng)的

vector,保留原有的二分類和連續(xù)特征,另外在加入了文本

embedding

特征,最后的結(jié)果不是很樂觀。因此分析原因可能是某些特征缺失

ID(比如

CV

職能等)初始化為

0

導(dǎo)致,還存在的原因可能是由于

IDvector

的知識(shí)結(jié)構(gòu)和文本

embedding

知識(shí)結(jié)構(gòu)不同導(dǎo)致,此處知識(shí)結(jié)構(gòu)可以理解為不同訓(xùn)練任務(wù)下的

embedding

空間結(jié)構(gòu)。圖

3經(jīng)歷了

DNN

嘗試沒帶來正向收益我們偏向于以線性和深度非線性結(jié)合的

Wide&Deep

結(jié)構(gòu)(如圖

4)進(jìn)行適配,此時(shí)我們考慮到

DNN

的實(shí)驗(yàn)產(chǎn)生的問題。6

|

第一部分圖

4我

識(shí)

產(chǎn)

IDembedding

DSSM

產(chǎn)

本embedding

的結(jié)果,我們采用

ID

類特征進(jìn)行隨機(jī)初始化的

embedding

在連接

match,IDsim和

textsim

等特征作為

deep

的輸入,將

match,IDsim,textsim

連接作為

wide

的輸入。以輸入

ID

類特征,match

類特征,IDsim

特征,textsim

xgboost

模型作為

wide&deep

的比較模型,實(shí)驗(yàn)證明

wide&deep

模型略優(yōu)于

xgboost

模型,但是如果對(duì)此基礎(chǔ)上

xgboost

做統(tǒng)計(jì)特征則可超過

wide&deep

模型。以上可得

deep

模型非線性表征能力還是略微的比

xgboost能力強(qiáng)。經(jīng)

wide&deep

實(shí)

驗(yàn)

礎(chǔ)

能,因

了deepFM

模型,deepFM

模型結(jié)構(gòu)圖如圖

5

所示(引用自

deepFM

相應(yīng)論文),deepFM

將wide&deep

wide

部分替換成了

FM

機(jī)制提升了模型對(duì)特征的交叉組合能力。根據(jù)此模型特征我們將

UID,圖譜產(chǎn)生的

ID

類特征等稀疏特征輸入

FM

部分,match

特征、IDsim

特征以及textsim

特征為

dense

特征輸入。結(jié)果很是令人歡喜,達(dá)到了以上實(shí)驗(yàn)的最優(yōu)值,可能這就是深度學(xué)習(xí)帶來的魅力吧。圖

57

|

第一部分在喜悅的同時(shí),我們想現(xiàn)有的

ID

初始化

embedding

都能產(chǎn)生如此大的魅力,利用

graphembedding

豈不更加喜人。在

DeepFM

模型輸入基礎(chǔ)上我們將

ID

graphembedding

也加入到模型的

densefeature

部分,然而實(shí)驗(yàn)證明并沒有想當(dāng)然的好

,

甚至產(chǎn)生了負(fù)作用。但至少證明了特征交叉能帶來收益,至于

graph

embedding

的加入為啥效果不好卻是值得思考和探索的問題。經(jīng)過上面的探索我們獲取了一些經(jīng)驗(yàn),例如交叉特征有用,用

embedding

產(chǎn)生的向量?jī)蓛上嗨菩杂?jì)算對(duì)樹模型有用,因此我們本著上面積累的經(jīng)驗(yàn)進(jìn)行了人工構(gòu)建交叉特征作為

xgboost

模型的輸入。在此基礎(chǔ)上加入統(tǒng)計(jì)特征,這波操作再次給我們帶來了

0.5%

的收益。最后總結(jié)下模型方面的探索結(jié)果,以上實(shí)驗(yàn)說明我們還沒有充分利用

graph

embedding和由DSSM

產(chǎn)出的文本

embedding,也證明了

embedding

內(nèi)涵的巨大作用,后期我們將加大力度去挖掘該部分的內(nèi)容。03現(xiàn)階段成果和未來展望4.1

現(xiàn)階段成果

>經(jīng)過上文特征和模型的探索在此我們分方案來展示我們的實(shí)驗(yàn)結(jié)果,分別包含以下方案:方案

1:ID類特征

+match

特征

+IDsim

特征

+textsim

特征

+gbdt方案

2:IDvector

特征

+match

特征

+IDsim

特征

+textvector

特征

+dnn方

3:ID類

征(隨

機(jī)

embedding)+match

+IDsim

+textsim

征+deepFM方案

4:ID

類特征

+match

特征

+IDsim

特征

+IDvectorinner(交叉)特征

+textsim

特征+

統(tǒng)計(jì)特征

+gbdt主要以這四種有效的遞進(jìn)關(guān)系來展示,其中多種的組合嘗試就不一一列舉了。效果如表格

1

中,我們的評(píng)價(jià)指標(biāo)主要為正例的準(zhǔn)確率,召回率,F(xiàn)1

值和總的

AUC

值作為評(píng)價(jià)指標(biāo)。表

18

|

第一部分以上結(jié)果都為數(shù)據(jù)清洗特征工程后結(jié)果,本次數(shù)據(jù)量

JD

CV

對(duì)大致為

86

萬,其中負(fù)例和正例比大致為

7:1,我們將其隨機(jī)分成

8:1:1

其中

8

成訓(xùn)練集、1

成訓(xùn)練集和

1

成測(cè)試集。4.2

未來展望

>特征為王說法不無道理,在加入深度學(xué)習(xí)探索時(shí)應(yīng)該思考數(shù)據(jù)質(zhì)量與數(shù)據(jù)量是否能支持,在數(shù)據(jù)質(zhì)量和量的保證下我們相信深度學(xué)習(xí)帶來的魅力是巨大的。最近由

Facebook

出品的

DLRM處理異構(gòu)

embedding

的能力使我們躍躍欲試。另外由微軟出品的

DKN

網(wǎng)絡(luò)也證明了

graphembedding

所隱藏的信息量對(duì)推薦效果有很大幫助。文獻(xiàn)5

中結(jié)合知識(shí)圖譜在電商環(huán)境下的推薦也使得我們相信充分挖掘

embedding

信息可以帶來不錯(cuò)的收益。作為以技術(shù)為驅(qū)動(dòng)的企業(yè),e

成科技在

AI

技術(shù)的基礎(chǔ)上,創(chuàng)新性地提出基于人才畫像和崗位畫像的匹配,為人崗匹配帶來革命性變革。e

成科技作為

HR+AI

賽道的領(lǐng)跑者,一直專注于

AI

技術(shù)在人力資本領(lǐng)域創(chuàng)新應(yīng)用,開創(chuàng)性地將AI

技術(shù)與人力資本場(chǎng)景深度結(jié)合。基于

6

年的

AI

能力和行業(yè)經(jīng)驗(yàn)積累,e

成科技打造了

AI

開放平臺(tái),將

AI

能力和產(chǎn)品整合至

AI

開放平臺(tái),并通過開放平臺(tái)將

AI

能力開放給所有企業(yè)和友商。e

成科技

AI

開放平臺(tái)是

HR

賽道首個(gè)企業(yè)自主研發(fā)的聚焦人力資本場(chǎng)景的一站式

AI

能力服務(wù)平臺(tái),覆蓋簡(jiǎn)歷解析、人崗匹配、HR

機(jī)器人等諸多場(chǎng)景,通過

OpenAPI

及需求定制等形式,面向所有自研系統(tǒng)大型企業(yè)、垂直招聘平臺(tái)、傳統(tǒng)

HR

行業(yè)廠商等企業(yè)用戶提供智能化服務(wù)。未來,我們將一直保持高效的創(chuàng)新與研發(fā)能力,將前沿的

AI

技術(shù)深度融合至人力資本場(chǎng)景,為所有企業(yè)賦能。文獻(xiàn)引用:[1]ChenT

,

GuestrinC

.

XGBoost:A

ScalableTreeBoostingSystem[J].2016.[2]CovingtonP,AdamsJ,SarginE,etal.DeepNeuralNetworksforYouTubeRecommendations[C].-conferenceonrecommendersystems,2016:191-198.[3]ChengH,KocL,HarmsenJ,etal.Wide&DeepLearningforRecommenderSystems[C].conferenceonrecommendersystems,2016:7-10.[4]GuoH,TangR,YeY,etal.DeepFM:AFactorization-MachinebasedNeuralNetworkforCTRPre-diction[J].arXiv:InformationRetrieval,2017.[5]WangJ,HuangP,ZhaoH,etal.Billion-scaleCommodityEmbeddingforE-commerceRecommen-dationinAlibaba[C].knowledgediscoveryanddatamining,2018:839-848.作者:e

成科技人崗匹配團(tuán)隊(duì)汪序明(掃描二維碼查看文章)9

|

第一部分解鎖這項(xiàng)AI黑科技,馬上實(shí)現(xiàn)人崗匹配自由人崗匹配,是企業(yè)人力資源管理的核心之一,更是

HR

招聘工作的精髓。傳統(tǒng)工作方式下,簡(jiǎn)歷搜索和人崗匹配往往消耗

HR

大量時(shí)間和精力,結(jié)果卻往往不精準(zhǔn),隨著人工智能和

NLP

技術(shù)的發(fā)展,一些招聘網(wǎng)站紛紛推出自動(dòng)化推薦功能,但卻同質(zhì)化嚴(yán)重,準(zhǔn)確率不高?,F(xiàn)在

“graphembedding”

破!在

e

AI

團(tuán)

隊(duì)

實(shí)

下,“graphembedding”

在人力資本領(lǐng)域落地且取得不俗效果,助力人崗匹配更加高效,這樣的

AI

技術(shù),作為

HR

的你值得擁有!01一切皆可Embedding在

NLP(自然語言處理)中

,

自然語言無法直接應(yīng)用到數(shù)學(xué)模型的建立中,需要將其映射到歐式空間。Embedding

就是解決如何將自然語言表示為向量的,Google

推出了

Word2Vec

模型,可以將語義相近的詞映射到向量空間中相近的位置,之后

Google

又提出了

BERT,BERT

可以考慮到相同詞在不同位置有不同含義等信息,利用這個(gè)新的語言模型刷新了問答、文本情感分析等多個(gè)語言任務(wù)的表現(xiàn)。同時(shí),Embedding

也可以作為深度學(xué)習(xí)模型的隱藏層,可以極大提高模型的表現(xiàn)。自從

word2vec

橫空出世,似乎各行各業(yè)的一切東西都在被

Embedding,Embedding

在數(shù)學(xué)上表示一個(gè)映射

F:X

->Y,也就是一個(gè)函數(shù),其中該函數(shù)是一一對(duì)應(yīng)的而且保持空間同構(gòu)性

(

即在

X

空間是近鄰的,則被映射到

Y

空間也是近鄰的

)。Embedding

技術(shù)被應(yīng)用在了多種業(yè)務(wù)場(chǎng)景中:1)在

Airbnb中實(shí)現(xiàn)實(shí)時(shí)個(gè)性化搜索,利用用戶近幾周或者近幾個(gè)月點(diǎn)擊過的房源行為數(shù)據(jù)實(shí)時(shí)對(duì)用戶的搜索目標(biāo)房源進(jìn)行相似度比較和排序,這樣既極大的提高了效率而且也保證的搜索房源的準(zhǔn)確性提高了用戶體驗(yàn)。2)在電子商務(wù)領(lǐng)域,根據(jù)用戶的瀏覽和購(gòu)買行為數(shù)據(jù),通過深度學(xué)習(xí)模型可以將用戶和物品同時(shí)嵌入

(embedding)

到相同的低維空間,然后利用

Embedding

計(jì)算用戶和物品之間的相似度(匹配度)直接給用戶推薦感興趣的物品。在人力資本領(lǐng)域,求職者、公司、職位、專業(yè)、技能等不同的實(shí)體間存在著多種類型的關(guān)系,構(gòu)成了一個(gè)知識(shí)圖譜(KnowledgeGraph)。這里,我們主要關(guān)注的是

GraphEmbedding(

其實(shí)也可以稱為

NetworkEmbedding)。我們利用

GraphEmbedding

技術(shù),把這些實(shí)體嵌入到低維的向量空間,可以直接比較他們的相似性,并能大大的提高簡(jiǎn)歷和崗位的匹配效果。對(duì)于具有較多類型節(jié)點(diǎn)且各類型節(jié)點(diǎn)的數(shù)量巨大來說這是比較好的嘗試,而且取得了一些效果。10

|

第一部分02生成GraphEmbedding常用方法及其原理由于

graphembedding

的廣泛應(yīng)用,同時(shí)衍生出了很多計(jì)算

embedding

的方法,下面我們介紹幾種商業(yè)上比較常用的幾種方法:1)DeepWalkDeepWalk[3]

KDD2014

的一篇文章,我們常用的

word2vec

是根據(jù)詞的共現(xiàn)關(guān)系利用skipgram

COBW

將詞映射到低維向量。DeepWalk

算法思路其實(shí)是利用了

word2vec

生成

embedding

的一種方法

skipgram,對(duì)于已經(jīng)建立的

Graph

來說每個(gè)節(jié)點(diǎn)可以是不同的實(shí)體且實(shí)體時(shí)間可以有不同的關(guān)系,從圖上的一個(gè)節(jié)點(diǎn)開始隨機(jī)游走(random

walk),如果節(jié)點(diǎn)之間有

weight

可以根據(jù)

weight

的不同進(jìn)行

walk

來生成類似文本的序列數(shù)據(jù),實(shí)體

id

作為一個(gè)個(gè)詞使用

skipgram

訓(xùn)練得到詞向量。算法的大體思路就是:根據(jù)圖中節(jié)點(diǎn)隨機(jī)游走->生成一定長(zhǎng)度的序列->利用

skip-gram

進(jìn)行訓(xùn)練。11

|

第一部分2)LINELINE(Large-scaleInformationNetworkEmbedding)是

2015

年文章

[4]

中微軟亞洲研究院提出來的一種算法,LINE

定義了兩種度量節(jié)點(diǎn)相似度的方法

:

一階相似度

(First-orderproximity)

和二階相似度

(Second-orderproximity)。一階相似度其中一階相似度就是兩個(gè)點(diǎn)直接相連的邊的權(quán)重,且邊權(quán)重越大說明兩個(gè)點(diǎn)越相似,如果兩個(gè)節(jié)點(diǎn)之間無連接,則一階相似度為

0;對(duì)每個(gè)無向邊,定義頂點(diǎn)和的聯(lián)合概率分布為:是頂點(diǎn)的低維向量表示

,

我們的目的就是使得經(jīng)驗(yàn)分布和概率分布盡可能的接近,于是我們定義以下一階相似度的目標(biāo)函數(shù):其中為兩種分布之間的距離,為空間上的一個(gè)分布

,

=

是它的經(jīng)驗(yàn)分布

,

其中

W

為兩點(diǎn)間邊權(quán)重總和。我們選擇

KL散度來計(jì)算(2)式子。KL

散度的計(jì)算公式其實(shí)是熵計(jì)算公式的簡(jiǎn)單變形

,

在原有概率分布

p

上,加入我們的近似概率分布

q,比較兩個(gè)概率分布的相似性:將,帶入

KL

散度的公式我們得到︰其中

C

為一個(gè)常數(shù),需要注意的是,一階相似度僅適用于無向圖

,

而不適用于有向圖。12

|

第一部分二階相似度二度相似性則是兩個(gè)點(diǎn)之間共享多少相同的節(jié)點(diǎn),共享的相同節(jié)點(diǎn)越多,而且共享的邊的權(quán)重越高則它們的相似性就越高。二階相似性假定與其他頂點(diǎn)共享鄰居頂點(diǎn)的兩個(gè)點(diǎn)彼此相似

(

無向有向均可

),一個(gè)向量和分別表示頂點(diǎn)本身和其他頂點(diǎn)的特定

“上下文”,意為二階相似。對(duì)于每個(gè)有向邊,我們首先定義由頂點(diǎn)生成

“上下文”

的概率:式子

(5)

是一個(gè)條件分布,對(duì)于頂點(diǎn),我們的目的就是要擬合與其經(jīng)驗(yàn)分布。為邊的權(quán)重,為相鄰邊的權(quán)重的和,因此最小化以下目標(biāo)函數(shù):d(,)

上文已經(jīng)說明,來表示頂點(diǎn)的度數(shù)。這里我們令利用

KL

散度同一階相似性的推導(dǎo)類似我們可以得到二階相似性的計(jì)算公式(去掉常數(shù)項(xiàng))為:具體應(yīng)用時(shí),

我們可以將一階和二階的得出的

embedding

進(jìn)行拼接這樣可以得到更多的語義信息。3)

Node2vecNode2vec[5]

算法是在

DeepWalk

基礎(chǔ)上進(jìn)行了改進(jìn),主要的創(chuàng)新點(diǎn)在于改進(jìn)了隨機(jī)游走的策略,DeepWalk

中根據(jù)邊的權(quán)重進(jìn)行隨機(jī)游走,而

Node2vec

加了一個(gè)權(quán)重調(diào)整參數(shù),同時(shí)考慮到局部和宏觀的信息,并且具有很高的適應(yīng)性。除了以上提到的常用的生成

embedding

方法,學(xué)術(shù)界和工業(yè)界還提出了很多方法,像

SDNE[6]、Struc2vec、Starspace[7](Facebook

用的技術(shù))、EGES(阿里巴巴推薦使用的技術(shù)之一)等。13

|

第一部分03GraphEmbedding為人崗匹配帶來新突破在人力資本行業(yè)最主要的兩大核心要素就是簡(jiǎn)歷

CV

和工作崗位

JD,如何讓

CV

JD

有效的匹配是人力資本行業(yè)一直非常重視的問題也是一個(gè)難題。我們?cè)谌肆Y本行業(yè)領(lǐng)域?qū)?/p>

graphembedding

的嘗試和應(yīng)用,并且取得了一定的效果。1)原始文本處理想要有效的進(jìn)行人崗匹配(即

CV

JD

的合理匹配),需要綜合考慮包括職能、行業(yè)、技能、專業(yè)等維度在內(nèi)的多維度匹配。首先應(yīng)該提取

CV、JD

中的文本特征,可以利用深度學(xué)習(xí)模型提取出

CV、JD

的文本特征,我們這里稱為實(shí)體。抽取出實(shí)體之后,我們就可以進(jìn)行

CV和

JD的匹配,對(duì)于自由文本來說除了

CV和

JD

的實(shí)體完全匹配上,可以算他們的相似度,詞的語義相似度無法完全的詮釋。舉個(gè)例子:CV

的特征:技能實(shí)體(JAVA),職能實(shí)體(JAVA

開發(fā)工程師)、專業(yè)實(shí)體(計(jì)算機(jī))JD

的特征:技能實(shí)體(Spring),職能實(shí)體(JAVA

后端開發(fā))、專業(yè)實(shí)體(信息技術(shù))從詞的表面是無法區(qū)分他們的相似度的。下面就用到了

embedding,embedding

可以將這些實(shí)體嵌入到同一低維的向量空間,在空間中實(shí)體之間的距離可以通過數(shù)學(xué)公式計(jì)算從而表示他們的相似性。2)生成實(shí)體

embedding第一步:數(shù)據(jù)的生成,我們首先利用

CV、JD

中不同實(shí)體的共現(xiàn),以及不同工作經(jīng)歷之間的跳轉(zhuǎn)來抽取簡(jiǎn)歷中的實(shí)體跳轉(zhuǎn),這些不同的實(shí)體之間可以構(gòu)成

network

如圖

1

所示。不同的實(shí)體就是不同的節(jié)點(diǎn),實(shí)線就是節(jié)點(diǎn)之間的邊也可以稱為關(guān)系。圖

114

|

第一部分第二步:使用

Deepwalk、LINE

生成

embedding。對(duì)于

Deepwalk

可以直接根據(jù)

network

生成不同的文本序列,利用

skip-gram

進(jìn)行模型的訓(xùn)練。而對(duì)于

LINE

可以直接利用不同實(shí)體的共現(xiàn)次數(shù)作為模型的輸入。第三步:優(yōu)化訓(xùn)練數(shù)據(jù)。我們發(fā)現(xiàn)不同的實(shí)體出現(xiàn)次數(shù)的量級(jí)是不同的,比如專業(yè)在

JD

中就很少出現(xiàn),這樣就導(dǎo)致了數(shù)據(jù)的不平衡。我們解決的方式是,統(tǒng)計(jì)了不同實(shí)體之間的

t?df、npmi(NormalPointwiseMutualInformation)作為實(shí)體之間的權(quán)重,即表示了不同實(shí)體之間關(guān)系的強(qiáng)弱程度,之后再進(jìn)行模型的訓(xùn)練。第四步:以上都是利用無監(jiān)督的方式去訓(xùn)練

embedding,由于

e

成科技有自己獨(dú)立的人力資源ATS

系統(tǒng),包含了用戶大量的真實(shí)行為數(shù)據(jù)。把其中匹配上的

CV、JD

作為正例,未匹配上的作為負(fù)例,構(gòu)造出有監(jiān)督的訓(xùn)練數(shù)據(jù)。將

JD

作為

query,CV

作為

title,利用

DSSM

模型

(

如圖

2)

進(jìn)行有監(jiān)督的模型訓(xùn)練。需要注意的是這里的

embedding

層并不是隨機(jī)初始化的,而是利用第三步已經(jīng)訓(xùn)練過的

embedding

作為預(yù)訓(xùn)練的權(quán)重。這樣有監(jiān)督訓(xùn)練的目的就是利用真實(shí)的行為數(shù)據(jù)更新

embedding

層的數(shù)據(jù),使得每個(gè)實(shí)體的

embedding

更能好的表達(dá)在招聘這個(gè)業(yè)務(wù)場(chǎng)景中的語義。圖

1我們使用內(nèi)部標(biāo)注的評(píng)估數(shù)據(jù)對(duì)不同模型進(jìn)行了評(píng)估,比較結(jié)果如下

:15

|

第一部分以下是

fasttext

graphembedding

模型輸出的

top

相關(guān)公司實(shí)體的一些例子。可以看到FastText

單單只從字面意思進(jìn)行了相似度匹配;而

graphembedding

模型輸出結(jié)果能夠更好地包含了具有相似業(yè)務(wù)、相似規(guī)模的公司,具有更好的語義相關(guān)性。以下是

fasttext

graphembedding

模型輸出的

top

相關(guān)公司實(shí)體的一些例子。可以看到FastText

單單只從字面意思進(jìn)行了相似度匹配;而

graphembedding

模型輸出結(jié)果能夠更好地包含了具有相似業(yè)務(wù)、相似規(guī)模的公司,具有更好的語義相關(guān)性。04HR+AI領(lǐng)跑者,助力每一個(gè)HR實(shí)現(xiàn)AI賦能本文主要闡述了

Embedding

的原理以及一些應(yīng)用,具體的闡述了

Graphmbedding

在人力資本領(lǐng)域的落地應(yīng)用。Embedding

既可以作為計(jì)算各個(gè)實(shí)體的工具也可以作為深度學(xué)習(xí)中的

embedding

嵌入層增加模型的準(zhǔn)確性。不夸張的說一切可以

embedding,而且

embedding

在很多領(lǐng)域都取得了不俗的成就,尤其是

NLP

領(lǐng)域。e

成科技作為

HR+AI

賽道的領(lǐng)跑者,一直專注于人力資本領(lǐng)域的

AI

創(chuàng)新升級(jí),開創(chuàng)性地將

AI技術(shù)與人才戰(zhàn)略升級(jí)場(chǎng)景深度結(jié)合

,

我們已經(jīng)將

embedding

技術(shù)應(yīng)用到人崗匹配、面試

Bot等多實(shí)際場(chǎng)景,接下來我們將繼續(xù)優(yōu)化

embedding,助力

AI

技術(shù)在人力資源領(lǐng)域的更多應(yīng)用。同時(shí),基于積累多年的

AI

能力和行業(yè)經(jīng)驗(yàn),e

成科技重磅打造了

AI

開放平臺(tái),并將

AI

能力開放給所有企業(yè)和友商。e

成科技

AI

開放平臺(tái)是

HR

賽道首個(gè)企業(yè)自主研發(fā)的聚焦人力資本場(chǎng)景的一站式

AI

能力服務(wù)平臺(tái),覆蓋簡(jiǎn)歷解析、人崗匹配、HR

機(jī)器人等諸多場(chǎng)景,通過

OpenAPI及需求定制等形式,面向所有自研系統(tǒng)大型企業(yè)、垂直招聘平臺(tái)、傳統(tǒng)

HR

行業(yè)廠商等企業(yè)用戶提供智能化服務(wù)。16

|

第一部分參考文獻(xiàn):[1]Banana,神奇的

Embedding,/p/53058456[2]Ethan,Embedding

的理解,/p/46016518[3]PerozziB,Al-RfouR,SkienaS.DeepWalk:OnlineLearningofSocialRepresentations[J].arXivpre-printarXiv:1403.6652,2014.[4]TangJ,QuM,WangM,etal.Line:Large-scaleinformationnetworkembedding[C]//Proceedingsofthe24thinternationalconferenceonworldwideweb.InternationalWorldWideWebConferencesSteer-ingCommittee,2015:1067-1077.[5]GroverA,LeskovecJ.node2vec:Scalablefeaturelearningfornetworks[C]//Proceedingsofthe22ndACMSIGKDDinternationalconferenceonKnowledgediscoveryanddatamining.ACM,2016:855-864.[6]WangD,CuiP,ZhuW,etal.StructuralDeepNetworkEmbedding[C].knowledgediscoveryanddatamining,2016:1225-1234.[7]Wu,L.,Fisch,A.,Chopra,S.,Adams,K.,Bordes,A.,&

Weston,J.(2017).StarSpace:EmbedAllTheThings!arXivpreprintarXiv:1709.03856作者:e

成科技知識(shí)圖譜團(tuán)隊(duì)白永斌(掃描二維碼查看文章)17

|

第一部分第二部分場(chǎng)景:人才畫像內(nèi)容:人才畫像畫得好,數(shù)字化

HR

有妙招AI

黑科技:Bert

ELMo(EmbeddingfromLanguageModels)

模型

Embedding

attention人才畫像畫得好,數(shù)字化HR有妙招俗話說

“人才畫像畫得好,HR

招聘快不少”。人才畫像是現(xiàn)在企業(yè)人才招聘和人才管理的核心,并應(yīng)用在人崗匹配、薪酬預(yù)測(cè)、人才盤點(diǎn)等諸多場(chǎng)景。數(shù)字化時(shí)代,畫像成為人才招聘和人才管理的入口,通過上百個(gè)維度進(jìn)行提煉、總結(jié)進(jìn)行人才全方位刻畫。但如何刻畫畫像,畫像準(zhǔn)不準(zhǔn),還得這背后默默運(yùn)行的

AI

算法和知識(shí)圖譜說了算。01畫像是什么?“畫

像”

的出現(xiàn),得

益于大數(shù)據(jù)、云

計(jì)算、人

工智能等新技術(shù)的飛速發(fā)展。用

戶畫像(persona)的

設(shè)

計(jì)

AlanCooper

:

“Personasarea

concreterepresentationoftargetusers.”是指真實(shí)用戶的虛擬代表,是建立在一系列屬性數(shù)據(jù)之上的目標(biāo)用戶模型。如今,為了提高客戶體驗(yàn)和運(yùn)營(yíng)效率,畫像早已被應(yīng)用在各行各業(yè)。金融企業(yè)是最早開始使用用戶畫像的行業(yè),在人力資本領(lǐng)域,人才

/

崗位畫像的應(yīng)用大大提升了

HR

的工作效率和質(zhì)量,是人力資本數(shù)字化的重要入口和核心要素。所謂人才

/

崗位畫像,即是基于企業(yè)招聘的顯性的職位描述和隱形的內(nèi)在潛質(zhì)共同組成的用戶畫像(以下簡(jiǎn)稱

“畫像”)。△一張畫像,沒有讀不懂的人才18

|

第二部分構(gòu)建畫像的核心工作,主要是利用存儲(chǔ)在服務(wù)器上的海量日志和數(shù)據(jù)庫里的大量數(shù)據(jù)進(jìn)行分析和挖掘,給用戶貼

“標(biāo)簽”,而

“標(biāo)簽”

是能表示用戶某一維度特征的標(biāo)識(shí)。業(yè)界有一套較為成熟的畫像構(gòu)建方法,為了讓畫像成為可普遍使用的基礎(chǔ)服務(wù),需要對(duì)畫像的字段進(jìn)行數(shù)值化處理。其中結(jié)構(gòu)化數(shù)據(jù)比較容易進(jìn)行數(shù)值編碼(例如:性別

/

年齡

/

工作年限等),而非結(jié)構(gòu)化數(shù)據(jù)(例如工作經(jīng)歷

/

職能

/

技能等)多數(shù)為文本類型處理難度較高。對(duì)于非結(jié)構(gòu)化數(shù)據(jù),生成具備語義含義的

Embedding

是業(yè)界較為廣泛使用的方案。職

/

統(tǒng)

識(shí)

系,即

使

個(gè)

/

的Embedding,如何通過聚合生成用戶整個(gè)知識(shí)體系的數(shù)值表達(dá)并盡可能保留文本自身的信息,依舊是亟待解決的問題。在畫像構(gòu)建過程中,對(duì)于結(jié)構(gòu)化數(shù)據(jù)業(yè)界已經(jīng)積累了大量的成熟有效的方案。然而非結(jié)構(gòu)化數(shù)據(jù)(例如文本類型)包含了更全面和深度的用戶潛在信息,目前通過詞向量加權(quán)平均依舊是主流使用的處理方法。此類方法存在一些缺陷:1.

生成的

Embedding

完全基于語義表達(dá),缺失了其內(nèi)在業(yè)務(wù)含義;2.

直接加權(quán)平均的方法,容易掩蓋掉重要的信息,且權(quán)重不好定義?;诖?,我們針對(duì)人力資本場(chǎng)景,借鑒

Bert

的思想提出了一個(gè)新方法,能夠更好地用數(shù)學(xué)的方法對(duì)人才

/

崗位畫像進(jìn)行表示。為了讓

AI+

數(shù)據(jù)驅(qū)動(dòng)的數(shù)字化招聘更為精準(zhǔn)智能,我們以

e

成科技獨(dú)有的

HR

行業(yè)職能

/

技能知識(shí)圖譜作為先驗(yàn)的業(yè)務(wù)知識(shí),并基于海量簡(jiǎn)歷和崗位描述數(shù)據(jù)(千萬級(jí)),借鑒

Bert

的模型架構(gòu),專門對(duì)畫像中的知識(shí)體系相關(guān)字段(職能

/

技能)進(jìn)行了深度優(yōu)化。該方法提供的知識(shí)表征,首先包含了技能

/

職能的內(nèi)在關(guān)系,其次通過

attention

的方式聚合能保證重要業(yè)務(wù)信息的不丟失。經(jīng)過優(yōu)化的人才

/

崗位畫像,在數(shù)字化招聘、人崗匹配、人才盤點(diǎn)、薪酬預(yù)測(cè)等多個(gè)下游業(yè)務(wù)場(chǎng)景中均取得顯著的優(yōu)化提升。部分場(chǎng)景舉例人才選拔:通過人才畫像分析,使人才供給與業(yè)務(wù)發(fā)展速度高度匹配,優(yōu)化人才隊(duì)伍配置效率,降低人才流失率;人才任用:通過崗位畫像和人才畫像的分析與匹配度分析,實(shí)現(xiàn)人才和崗位最優(yōu)配置,使優(yōu)秀人才能充分發(fā)揮能力與主觀能動(dòng)性,提高人力資本效率;19

|

第二部分薪酬預(yù)測(cè):根據(jù)人才畫像和崗位畫像,結(jié)合行業(yè)崗位知識(shí),分析人才

/

候選人技能及發(fā)展水平,預(yù)測(cè)候選人及企業(yè)未來薪酬水平;接下來,院長(zhǎng)就將為大家介紹

e

成科技在有關(guān)領(lǐng)域的最新方案以及應(yīng)用成果。02ELMoVSWord2Vec,更優(yōu)的特征提取器Word2Vec

是近幾年非常流行的

WordEembedding

提取模型。模型通過預(yù)先構(gòu)建的詞表將輸入語句中某單詞前、后所有詞語編碼為多個(gè)

one-hot

向量傳入模型,隨后通過一個(gè)共享的參數(shù)矩陣將這些向量映射到隱藏層,最后使用

softmax

將隱藏層的輸出轉(zhuǎn)化為詞表中每個(gè)單詞的概率作為輸出,其中概率最高的單詞即為最終預(yù)測(cè)結(jié)果。經(jīng)過充分訓(xùn)練后,詞表中每個(gè)單詞的語義

經(jīng)

“嵌

入”

數(shù)

中。使

時(shí)

的one-hot

向量和參數(shù)矩陣相乘就可以得到對(duì)應(yīng)的

WordEmbedding。這樣的網(wǎng)絡(luò)結(jié)構(gòu)為

Word2Vec

帶來了一個(gè)嚴(yán)重的問題,它無法為語言中常見的多義詞提取Embedding。由于同一個(gè)單詞在參數(shù)矩陣中只占據(jù)一個(gè)向量,網(wǎng)絡(luò)只能將多義詞的不同語義信息全部編碼到相同的向量中,反而降低了這些詞向量的表達(dá)能力。此外,Word2Vec

只采用了一個(gè)線性隱藏層,特征提取能力較弱,對(duì)

Embedding

的表現(xiàn)也有很大的影響。ELMo(EmbeddingfromLanguageModels)

模型使用與

Word2Vec

截然不同的方式提取Embedding,并采用更優(yōu)的特征提取器,很好地解決了多義詞問題,同時(shí)增強(qiáng)了詞向量的表達(dá)能力。模型使用兩層雙向

LSTM(LongShortTermMemory)

單元作為模型中間層,其中正向LSTM

順序接受輸入語句中給定單詞的上文,逆向

LSTM

倒序接受語句中給定單詞的下文。訓(xùn)練完成后將輸入層

Embedding

和兩層

LSTM

產(chǎn)生的

Embedding

加權(quán)結(jié)合后作為句中每個(gè)單詞的

Embedding

使用。與

Word2Vec

查表式獲取靜態(tài)的

Embedding

不同,ELMo

可以根據(jù)上下文信息動(dòng)態(tài)調(diào)整詞語的

Embedding。多層

LSTM

特征提取器可以從文本中分別提取句法、語義等不同層次的信息,大大提升了詞語特征的豐富程度。Attention

機(jī)制是近幾年提出的新型特征提取器,在

NLP

領(lǐng)域的表現(xiàn)效果遠(yuǎn)超以往使用的卷積神

經(jīng)

網(wǎng)

絡(luò)

LSTM

術(shù)。Bert

優(yōu)

現(xiàn)

機(jī)

礎(chǔ)

上,多

層Self-Attention

單元構(gòu)成的大型網(wǎng)絡(luò)和巧妙設(shè)計(jì)的無監(jiān)督訓(xùn)練方式使模型可以利用豐富的自由文本進(jìn)行訓(xùn)練,從中提取多層次的語言特征。20

|

第二部分03e成科技的應(yīng)用:知識(shí)表征模型我們的知識(shí)表征模型(以下簡(jiǎn)稱

“模型”)同樣使用了多層

Self-Attention

單元作為基本的特征提取器,嘗試從

e

成科技豐富的數(shù)據(jù)中挖掘出可描述職能和技能各自特征及其相關(guān)關(guān)系的Embedding。為了訓(xùn)練這樣的模型,我們借鑒并調(diào)整了

Bert

的設(shè)計(jì)思路,建立一套符合我們?cè)V求的模型結(jié)構(gòu)。模型將

e

成科技知識(shí)圖譜中職能和技能的實(shí)體名稱作為

Embedding

提取粒度,端到端地進(jìn)行特征提取,避免字粒度模型提取特征后還需將其重新組合成詞語的麻煩,也減少了模型的信息損失。模型訓(xùn)練時(shí),我們使用職能、技能前后拼接的數(shù)據(jù)結(jié)構(gòu),其中來自相同

CV

數(shù)據(jù)的職能、技能作為正樣本,來自相似行業(yè)中不同

CV

數(shù)據(jù)的職能、技能作為負(fù)樣本。正負(fù)樣本數(shù)量比例為

1:1。為了防止模型僅抽取職能對(duì)技能的依賴關(guān)系,我們?cè)趯⒙毮芎图寄苷{(diào)換順序后的數(shù)據(jù)加入樣本中同時(shí)訓(xùn)練,以提取雙向的依賴關(guān)系。經(jīng)過充分訓(xùn)練后,模型可以提供多樣化的使用方式。模型最后一層輸出和輸入序列等長(zhǎng)的Embedding

序列,其中第一個(gè)

Embedding

包含整條數(shù)據(jù)的特征,之后每個(gè)

Embedding

與輸入序列的詞語一一對(duì)應(yīng),分別是每個(gè)詞語的動(dòng)態(tài)特征。將序列頭

Embedding

接入下游任務(wù)網(wǎng)絡(luò)中可以對(duì)模型進(jìn)行

?ne-tune,可進(jìn)一步用于不同的細(xì)分領(lǐng)域任務(wù)。同時(shí),其余

Embedding

也可以直接作為詞語特征使用??紤]到模型結(jié)構(gòu)復(fù)雜,運(yùn)算時(shí)間較長(zhǎng),針對(duì)某些性能要求較高的業(yè)務(wù)場(chǎng)景,可以將模型輸入層對(duì)應(yīng)的

Embedding

作為靜態(tài)詞向量使用,通過查表方式大大簡(jiǎn)化運(yùn)算流程。我們使用內(nèi)部標(biāo)注的薪酬預(yù)測(cè)、人崗匹配數(shù)據(jù)對(duì)不同模型進(jìn)行了評(píng)估,結(jié)果如下:21

|

第二部分薪酬預(yù)測(cè)任務(wù)中,每個(gè)模型需要提取候選人的技能

Embedding

作為下游任務(wù)的參數(shù),輔助判斷候選人的薪酬水平。實(shí)驗(yàn)中模型之間互不影響,且使用相同的下游薪酬預(yù)測(cè)模型。結(jié)果中可以看到,我們的知識(shí)技能表達(dá)模型對(duì)下游任務(wù)各項(xiàng)指標(biāo)均有

5%

左右的提升。而人崗匹配任務(wù)中,我們將崗位和候選人各自技能

Embedding

之和作為它們的特征向量,通過特征向量相似度判斷候選人和崗位是否匹配。評(píng)估結(jié)果顯示,我們的模型表現(xiàn)非常出眾,提升效果明顯。測(cè)試過程中,模型可以將大部分被覆蓋的詞語還原為正確結(jié)果,下面是從測(cè)試樣例中抽取的部分未正確還原的情況??梢钥吹郊词惯€原失敗,模型也能夠預(yù)測(cè)到行業(yè)內(nèi)與正確結(jié)果相似的答案。數(shù)字化時(shí)代,HR

作為推動(dòng)企業(yè)數(shù)字化升級(jí)的核心力量之一,通過數(shù)字化工具助力人才管理和人才引進(jìn)數(shù)字化,已經(jīng)成為必然趨勢(shì)。e

成科技創(chuàng)新研發(fā)的畫像

+Bot

兩大引擎,助力人才知己、企業(yè)知人、社會(huì)知命。利用大數(shù)據(jù)和人工智能技術(shù)構(gòu)建的畫像,將對(duì)人才的素質(zhì)、性格、職業(yè)動(dòng)力都進(jìn)行全方位描述,幫助人才認(rèn)識(shí)自己,進(jìn)行自我反思,同時(shí)幫助企業(yè)和

HR

更全面、更立體、更準(zhǔn)確識(shí)別候選人,實(shí)現(xiàn)選、融、育、激各個(gè)環(huán)節(jié)高效的人才管理。22

|

第二部分作為

HR+AI

賽道的領(lǐng)跑者,e

成科技從創(chuàng)立伊始就將

AI

基因根植于業(yè)務(wù),并開創(chuàng)性地將

AI

技術(shù)與人才戰(zhàn)略升級(jí)場(chǎng)景深度結(jié)合。同時(shí),基于積累多年的

AI

能力和

HR

行業(yè)經(jīng)驗(yàn),e

成科技重磅打造了

AI

開放平臺(tái),通過

OpenAPI

及需求定制等形式將

AI

能力開放給所有企業(yè)和友商。e成科技

AI

開放平臺(tái)是

HR

賽道首個(gè)企業(yè)自主研發(fā)的聚焦人力資本場(chǎng)景的一站式

AI

能力服務(wù)平臺(tái),覆蓋簡(jiǎn)歷解析、人崗匹配、HR

機(jī)器人等諸多場(chǎng)景,這些

HR+AI

的創(chuàng)新應(yīng)用和智能產(chǎn)品背后,都是

e

成科技領(lǐng)先的

AI

能力和默默潛心研發(fā)的科學(xué)家及算法工程師們作為支撐。未來,e

成科技將持續(xù)打造更多創(chuàng)新智能產(chǎn)品,全面加速人力資本數(shù)字化升級(jí)!作者:e

成科技

AI

算法團(tuán)隊(duì)陳嘉欽(掃描二維碼查看文章)23

|

第二部分第三部分場(chǎng)景:音視頻面試內(nèi)容:AI

面試官來襲,HR

你準(zhǔn)備好了嗎?AI

黑科技:機(jī)器學(xué)習(xí)、語音識(shí)別、面部識(shí)別、排名算法、計(jì)算機(jī)視覺技術(shù)、語義理解能力、跨媒體協(xié)同推理技術(shù)AI面試官來襲,HR你準(zhǔn)備好了嗎?這回院長(zhǎng)為大家?guī)硪粋€(gè)神秘炸彈:獵豹(Leopard)項(xiàng)目!聽起來是不是很炫酷?你一定想不到,這個(gè)獵豹(Leopard)項(xiàng)目是做什么的吧?沒錯(cuò)!就是眾多候選人

“聞風(fēng)喪膽”

AI

面試!這是

e

成科技

AI

算法團(tuán)隊(duì)研究的新成果,之所以起這個(gè)名字是希望我們的

AI

面試像草原上狩獵的獵豹一樣敏捷高效!下面就隨院長(zhǎng)一起看看

“這只獵豹”

背后的黑科技吧!01AI技術(shù)正在改變招聘說到

AI

面試,相信很多參加過校招的候選人都不陌生,被

HireVue

支配的恐懼還歷歷在目,不少小伙伴面完忍不住把一首

“涼涼”

送給自己……對(duì)于很多企業(yè)和

HR

來說,AI

面試更是應(yīng)用廣泛。招聘是企業(yè)和

HR

亙古不變的主題,尤其是眾多大廠每年要面臨千百萬量級(jí)的候選人,面對(duì)如此龐大的應(yīng)聘者數(shù)量,AI

技術(shù)無疑是簡(jiǎn)化招聘的利器。24

|

第三部分高速發(fā)展的智能科技結(jié)合視頻面試,給企業(yè)面試帶來巨大便利,于是越來越多的企業(yè)開始借助AI

的力量。過去幾年,使用

AI

視頻面試的公司從

14%

上升至

60%,聯(lián)合利華、歐萊雅、可口可樂、達(dá)能、高盛、瑞士銀行、摩根大通等全球

600

多家企業(yè)陸續(xù)開始使用

AI

面試的形式進(jìn)行首輪面試。在提供

AI

面試的企業(yè)中,以視頻面試公司

HireVue

開發(fā)的服務(wù)最為著名。在一個(gè)典型的

AI

視頻面試場(chǎng)景中,面試者需要面對(duì)攝像頭回答虛擬面試官提出的一組問題,系統(tǒng)會(huì)根據(jù)面試者的回答情況,結(jié)合面試者聲音及面部表情的信息,判斷其能否通過這一場(chǎng)面試?!鲌D片來自

HireVue

官網(wǎng)之所以越來越接受的企業(yè)愿意類似的

AI

面試,院長(zhǎng)覺得有如下幾個(gè)原因:1.

相比于傳統(tǒng)的人工面試,基于音視頻的

AI

面試可以在前期大大減少

HR

的工作量,降低企業(yè)成本;2.

在簡(jiǎn)歷篩選和初面階段,由于不同面試官的專業(yè)水平和個(gè)人喜好不同,會(huì)使得面試存在著很大的偶然性。而基于

AI

的音視頻面試的面試評(píng)價(jià)標(biāo)準(zhǔn)相對(duì)統(tǒng)一,對(duì)每個(gè)面試者也更加公平;3.

基于音視頻的

AI

面試除了能夠?qū)γ嬖囌叩幕卮疬M(jìn)行分析外,還可以對(duì)面試者的表情及回答內(nèi)容給出實(shí)時(shí)的分析與反饋,既能提升面試者體驗(yàn),也有助于提升公司的品牌形象。不過,要做到體驗(yàn)級(jí)的音視頻面試能力,對(duì)于產(chǎn)品和技術(shù)的要求都是非常高的。不同的行業(yè)與招聘場(chǎng)景,對(duì)于音視頻面試的要求都是不同的,想要產(chǎn)品既契合場(chǎng)景且體驗(yàn)出色,少不了大量的細(xì)致考量與技術(shù)打磨。至于需要哪些技術(shù)?接下來院長(zhǎng)就為大家揭示下充滿科技感且看起來高大上的

AI

面試背后的黑科技。25

|

第三部分02黑科技揭秘:AI面試為何那么神2004

HireVue

成立之初,只是為了記錄面試者視頻數(shù)據(jù),供

HR

參考。10

年后,HireVue融入了

AI

技術(shù),重新定義了

“面試”。這些

AI

技術(shù)是基于機(jī)器學(xué)習(xí)的復(fù)雜算法,并結(jié)合語音識(shí)別以及面部識(shí)別,協(xié)同排名算法,通過

15000+

個(gè)不同的維度(包括肢體語言、語音模式、眼神活動(dòng)、做題速度、聲音大小等)來對(duì)候選者進(jìn)行評(píng)分?!鰽I

面試可以通過

15000+

個(gè)不同維度對(duì)候選者評(píng)分

,

圖片來自

BusinessInsider之前有同學(xué)跟院長(zhǎng)說,現(xiàn)在我們的語音識(shí)別和人臉識(shí)別技術(shù)都已經(jīng)非常成熟,做基于

AI

的音視頻頻面試只是把這些能力進(jìn)行一下組合,難度并不大。這種說法確實(shí)有一些道理,AI

面試產(chǎn)品的出現(xiàn)確實(shí)是得益于近年來人工智能飛速的發(fā)展,特別是深度學(xué)習(xí)在計(jì)算機(jī)視覺和語音識(shí)別等領(lǐng)域的廣泛應(yīng)用。但是,面試場(chǎng)景又對(duì)

AI

能力有很多特殊的要求,需要有針對(duì)性做大量工作,下面院長(zhǎng)結(jié)合

e

成科技在這方面的研究成果和創(chuàng)新研發(fā)進(jìn)行介紹:語義理解能力要對(duì)求職者的能力有好的判斷,面試官必須對(duì)求職者所說的內(nèi)容做到充分的理解,AI

面試官也不例外。除了夠理解面試者的意圖,并且判斷面試者的通用表達(dá)能力、語言邏輯性的通用語義理解外,AI

面試官還需要具備更加專業(yè)的知識(shí)。借助于六年來積累的大量人力資源行業(yè)專家知識(shí)及知識(shí)圖譜,e

成科技開發(fā)的

AI

面試產(chǎn)品不但可以基于不同崗位的需求進(jìn)行技能追問和熟練度判斷,并且研發(fā)行業(yè)內(nèi)首個(gè)

BEI

機(jī)器人,通過分析候選人提供的故事來判斷其在不同崗位要求素質(zhì)項(xiàng)上的評(píng)分。26

|

第三部分對(duì)話能力為了保證求職者擁有更好的面試體驗(yàn),AI

面試官也得像普通面試官一樣跟候選人流暢地對(duì)話,這除了依賴前面所說的語義理解能力外,也需要強(qiáng)大的對(duì)話能力作為支持。e

成科技近年來開發(fā)多款

HR

場(chǎng)景聊天機(jī)器人,并沉淀出統(tǒng)一對(duì)話框架

Snowball?;谠搶?duì)話框架,AI

面試機(jī)器人可以進(jìn)行統(tǒng)一的意圖識(shí)別和對(duì)話策略管理,并同時(shí)支持知識(shí)庫問答和閑聊(Chitchat),帶給候選人更好的面試體驗(yàn)。語音與視覺能力進(jìn)行音視頻面試非常核心的工作是對(duì)語音和視頻內(nèi)容的理解。其中語音識(shí)別是整個(gè)

AI

面試對(duì)候選人回答內(nèi)容進(jìn)行語義理解的基礎(chǔ)。雖然業(yè)界語音識(shí)別技術(shù)已經(jīng)相對(duì)成熟,但是針對(duì)面試場(chǎng)景尚存在大量識(shí)別錯(cuò)誤的情況,需要借助專業(yè)領(lǐng)域數(shù)據(jù)及模型進(jìn)行后續(xù)糾錯(cuò)。而除了基礎(chǔ)的語音識(shí)別外,e

成科技的科學(xué)家和算法工程師們還在探索基于一些基礎(chǔ)的語音信息對(duì)面試者的面試狀態(tài)(比如,面試者是否緊張)、基礎(chǔ)表達(dá)能力和普通話能力進(jìn)行分析。在視覺方面,視頻面試相比基于文字或者語音的面試,最大的優(yōu)勢(shì)在于可以了解面試者的行為與狀態(tài),對(duì)于一些頂替、偷看資料等面試作假的情況,可以利用人臉識(shí)別和動(dòng)作場(chǎng)景識(shí)別的計(jì)算機(jī)視覺算法進(jìn)行識(shí)別。更進(jìn)一步地,與

HireVue等

AI

面試產(chǎn)品類似,e

成科技也在開發(fā)利用計(jì)算機(jī)視覺技術(shù)對(duì)面試者進(jìn)行更細(xì)致的分析,比如借助微表情和情緒識(shí)別技術(shù)判斷面試者在回答問題過程中的心理狀態(tài),甚至捕捉到一些候選人可信度不夠高的回答??缑襟w有了音視頻的處理能力,AI

面試官可以從視覺、語音、語義等不同維度獲取候選人的信息,雖然每個(gè)維度都能夠獲取大量候選人信息,但要真正想把

AI

面試做好,必須對(duì)這些不同維度的信息進(jìn)行統(tǒng)一分析。舉個(gè)例子,當(dāng)候選人在提到某個(gè)關(guān)鍵概念時(shí),說話的語氣和眼神可能會(huì)有一些變化,那么可能候選人對(duì)該概念的理解是不到位的,這樣的結(jié)論可以給面試官會(huì)帶來非常大的參考和幫助。想要實(shí)現(xiàn)這樣的功能,除了各個(gè)本身的內(nèi)容理解外,還需要引入

“跨媒體協(xié)同推理”

技術(shù)。這一技術(shù)是新一代人工智能的重要組成部分,通過視聽感知、機(jī)器學(xué)習(xí)和語言計(jì)算等理論和方法,構(gòu)建出實(shí)體世界的統(tǒng)一語義表達(dá),從而跨媒體的分析和推理。e

成科技在自己的音視頻面試產(chǎn)品中大量采用了跨媒體技術(shù),對(duì)不同的媒體信息來源進(jìn)行整合分析,從而大大提升了對(duì)候選人判斷的準(zhǔn)確性。27

|

第三部分02黑科技揭秘:AI面試為何那么神AI

技術(shù)似乎具有與生俱來的爭(zhēng)議性。雖然基于音視頻的

AI

面試已經(jīng)在很多場(chǎng)合得到廣泛應(yīng)用,但是也有不少人對(duì)其產(chǎn)生質(zhì)疑。一方面,到底

AI

面試官的信效度如何,能否達(dá)到專業(yè)面試官的水平?院長(zhǎng)覺得機(jī)器和人類各有優(yōu)劣,機(jī)器并不是要替代人類,而是要輔助人類,和人類更好地合作。在具體形式上,AI

面試官和專業(yè)面試官可以有很多協(xié)同方式,比如由

AI

面試官進(jìn)行候選人的初篩,并且給后續(xù)專業(yè)面試官提供面試評(píng)價(jià)與建議。也有人會(huì)覺得

AI

面試可能產(chǎn)生一些倫理問題,如是否會(huì)產(chǎn)生一些對(duì)相貌和言語的歧視?其實(shí)這樣的擔(dān)心大可不必,任何新生事物出現(xiàn)總是會(huì)帶來新的問題,但是憑人類的智慧一定可以處理好這些問題,讓自己成為

AI

時(shí)代的受益者。簡(jiǎn)而言之,AI

面試的初衷是幫助優(yōu)秀的候選人脫穎而出,從而讓招聘者重點(diǎn)關(guān)注優(yōu)秀候選人;同時(shí),可以大大幫助

HR

節(jié)省時(shí)間,把更多精力放在關(guān)注人才質(zhì)量、選拔多樣性上。人工智能是應(yīng)對(duì)這些挑戰(zhàn)的最佳方式。而從創(chuàng)立之初就將

AI

基因深植于業(yè)務(wù)的

e

成科技,一直在潛心研發(fā)和積累,致力于將

AI

技術(shù)深度應(yīng)用于人力資本全場(chǎng)景中,推動(dòng)人力資本智能變革。憑借自身在

AI

能力和行業(yè)經(jīng)驗(yàn)的獨(dú)特優(yōu)勢(shì),以及來自全球頂尖跨媒體技術(shù)實(shí)驗(yàn)室的

AI

核心團(tuán)隊(duì),擁有頂尖的跨媒體

AI

技術(shù),結(jié)合多年積累的知識(shí)圖譜與對(duì)話技術(shù),e

成科技推出的

AI

面試機(jī)器人更是如虎添翼?!鱡

成科技

AI

開放平臺(tái)四大算法中臺(tái)28

|

第三部分目前,e

成的音視頻面試技術(shù)已經(jīng)在一線員工自動(dòng)化招聘和候選人

Bot

等場(chǎng)景中落地,為大量的用戶賦能,助力企業(yè)降本增效。未來,隨著科技飛速發(fā)展,AI

技術(shù)正在根據(jù)大數(shù)據(jù)和深度學(xué)習(xí)不斷優(yōu)化和升級(jí),AI

在行業(yè)的應(yīng)用也會(huì)越來越廣泛和深入,我們也必須擁抱變化,適應(yīng)人機(jī)交互新模式,通過駕馭智能工具,實(shí)現(xiàn)數(shù)字化升級(jí)。e

成科技愿意借助于自身在

AI

開放平臺(tái)、技術(shù)、產(chǎn)品、行業(yè)經(jīng)驗(yàn)等優(yōu)勢(shì),助您實(shí)現(xiàn)人力資本數(shù)字化新升級(jí)!作者:e

成科技

AI

算法團(tuán)隊(duì)劉洋(掃描二維碼查看文章)29

|

第三部分第四部分場(chǎng)景:RPA內(nèi)容:真技術(shù)還是偽

AI,HR

如何選擇合適的智能工具?HR

圖靈學(xué)院

|

一文讀懂

RPA、AI

HR

的關(guān)系A(chǔ)I

黑科技:語音識(shí)別

(ASR)、自然語言理解

(NLU)、對(duì)話管理(DM)、文本生成(NLG)、語音合成(TTS)、文本檢索、情感分析、光學(xué)文字識(shí)別(OCR)……一文讀懂RPA、AI與HR的關(guān)系近兩年,科技行業(yè)熱詞里突然多了一個(gè)簡(jiǎn)寫—RPA,有人把

RPA

當(dāng)作解放勞動(dòng)力的救星,認(rèn)為任何大規(guī)模、重復(fù)性工作都能用

RPA

機(jī)器人代替,大大節(jié)省了人力、時(shí)間和金錢。比如在人力資本領(lǐng)域,研究表明,HR

們大約

93%時(shí)間花費(fèi)在重復(fù)性工作上,但

65%的工作流程其實(shí)可以實(shí)現(xiàn)自動(dòng)化,RPA

可以將

HR

從大量、繁瑣、重復(fù)的任務(wù)中解放出來,如簡(jiǎn)歷篩選、面試邀約、員工入職、員工數(shù)據(jù)管理、考勤管理、離職管理……從而將時(shí)間和資源聚焦在更高價(jià)值和戰(zhàn)略性任務(wù)上。Gartner

研究表明,到

2022

年底

85%的大型和超大型組織將部署某種形式的

RPA。一時(shí)間,RPA

風(fēng)頭無兩,被認(rèn)為未來市場(chǎng)前景廣闊,引得各路投資人爭(zhēng)先恐后。但也存在不同聲音,有人說

RPA

是開數(shù)字化歷史的倒車,認(rèn)為

RPA

只不過是在重復(fù)執(zhí)行腳本,不過是不斷執(zhí)行命令的

“手腳”,AI

才是發(fā)布命令的

“大腦”。面對(duì)眾說紛紜、信息紛繁,我們似乎只能管中窺豹難得全貌,那么到底該如何看待

RPA

?

RPA和

AI

有哪些聯(lián)系?

RPA

HR

又有哪些關(guān)系呢?本期,院長(zhǎng)就聊一聊關(guān)于

RPA

你想知道的那些事兒。30

|

第四部分31

|

第四部分32

|

第四部分33

|

第四部分34

|

第四部分35

|

第四部分(掃描二維碼查看文章)36

|

第四部分真技術(shù)還是偽AI,HR如何選擇合適的智能工具?2019

年,RPA

突然火了,成為新興風(fēng)口、資本的寵兒,甚至有些媒體宣稱人力資源部門一定要部署

RPA,但這種火熱到底是資本炒作,還是

RPA

真的有用,相信很多人都心存疑惑……01RPA能滿足HR需求嗎RPA(RoboticProcessAutomation),是指用軟件流程自動(dòng)化方式實(shí)現(xiàn)在各個(gè)行業(yè)中本來是人工操作計(jì)算機(jī)完成的業(yè)務(wù)。事實(shí)上,第一期院長(zhǎng)和大家探討了

RPA

AI

的關(guān)系,傳統(tǒng)

RPA

并沒有用到特別前沿的人工智能技術(shù),RPA

也并不等同于人工智能。但隨著近些年來,軟件流程自動(dòng)化技術(shù)與

AI

這兩個(gè)互補(bǔ)概念結(jié)合在一起,RPA

很多環(huán)節(jié)上用到了越來越多的人工智能技術(shù),使得工具更加智慧,也提升了效率減少了人工,于是

RPA

在金融、財(cái)務(wù)和工業(yè)自動(dòng)化等領(lǐng)域應(yīng)用越來越廣泛。對(duì)于企業(yè)人力資源部門來講,HR

每天都需面對(duì)大量事務(wù)性工作,這些事務(wù)性工作大都可以通過自動(dòng)化的方式由機(jī)器人來替代。而借助語音識(shí)別、OCR

AI

能力,也的確能夠進(jìn)一步提升RPA

的靈活性與智能性,替代人工將繁瑣的業(yè)務(wù)操作流程自動(dòng)化,解放

HR

們的雙手,提升

HR的工作效率??梢姡琑PA

的真正價(jià)值在于,其可以將

HR

從以往大量、繁瑣、重復(fù)的事務(wù)性工作(如篩選簡(jiǎn)歷、入離職辦理、社保、福利、開具證明等)中解放出來,將時(shí)間和資源集中在高價(jià)值的、戰(zhàn)略性任務(wù)上(比如支持組織轉(zhuǎn)型、引入職業(yè)發(fā)展規(guī)劃、尋找最新培訓(xùn)材料、理解業(yè)務(wù)特點(diǎn)和實(shí)操場(chǎng)景、為企業(yè)戰(zhàn)略提供決策依據(jù)等),提高人資效率。37

|

第四部分但

RPA

真的能滿足

HR

的所有工作需求嗎?院長(zhǎng)曾經(jīng)和一些在互聯(lián)網(wǎng)公司的

HR

小伙伴們探討這個(gè)問題,他們紛紛表示人資軟件操作并非他們工作的主要內(nèi)容,單純的軟件流程自動(dòng)化對(duì)他們幫助非常有限。首先,我們知道不同于金融、財(cái)務(wù)等工作,HR

每天更多時(shí)間花在了與候選人、員工的面試與溝通上。這些溝通需要

HR

與員工協(xié)同進(jìn)行,時(shí)間與方式都非常靈活,很難通過傳統(tǒng)軟件進(jìn)行自動(dòng)化。其次,優(yōu)秀的HR

進(jìn)行的溝通應(yīng)該是有溫度的,這樣的溫度很難在軟件自動(dòng)化中體現(xiàn)和傳遞出

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論