问答详情

如何对招聘数据进行分析?

1109次观看
标签: 招聘数据 招聘数据分析
老师回答

1、过程数据

过程数据分析是对招聘流程进行优化和持续改进,过程数据的分析,我们可以直接采用漏斗图进行不同维度的分析,例如招聘团队、公司、部门、岗位、时间等维度。

2、结果数据

结果数据也是招聘KPI,它直接反映人力资源部门或者招聘团队的工作效果,甚至决定着人力资源部门或招聘团队能否跟上公司的发展节奏。

我们可以根据招聘计划完成率来调整招聘工作或者对其它模块工作提出改进建议,例如通过分析,我们得出招聘计划完成率最低的5个岗位,我们可以重点建立几个岗位的人才库储备人员、通过一系列措施留人、开展师带徒项目或后备人才项目提前储备人员等。

平均招聘周期决定着人力资源部门或招聘团队能否快速的把人员招聘到位,以便及时开展工作或接替离职人员工作。

3、渠道数据

渠道数据主要是分析各个招聘渠道的优劣以及在什么情况下采用何种招聘渠道最有效。渠道数据的分析主要是以招聘渠道维度来分析过程指标以及结果指标,同时可以结合部门、岗位、职级等维度来得到特定情况下最有效的招聘渠道。

例如我们可以来分析各个招聘渠道录用人数点录用总人数的比率,如果结合岗位维度,我们会发现招聘渠道1是招聘某岗位最好的渠道。

我们还可以通过各个招聘渠道的对比,来分析招聘成本支出情况。

如果再结合人均招聘成本情况,我们会发出使用最多的网络招聘成本最低,而现场招聘、校园招聘的成本是非常高的。再结合录用人数和录用率的对比,我们可以通过年度招聘计划来做一个最优招聘渠道组合,在这个基础上安排我们全年的招聘工作。

4、成本数据

招聘工作并不是无休止的投入,如果不计成本的投入,相信招聘工作也就非常好做,所以招聘成本指标是我们必须要关注的一项指标。

通过实际支出与预算的对比,来分析招聘预算做的是否合理、年度招聘计划是否符合实际情况等。

通过人均招聘成本的分析,可以有针对性的提出改进性措施,降低招聘成本提高招聘效果,结合公司、部门、岗位、职级、招聘渠道等维度可以有效的分析出问题。

免费直播

    相关推荐
    数据分析的5种细分方法有哪些?
    刘老师 数据分析师

    1.按时间细分

    时间可以细分为不同的跨度,包括年、月、周、日、时、分、秒等等,不同的时间跨度,数据表现可能大不相同。

    比如说,按照月度来看,产品的销量可能变化不大,但是如果细分到每一天,可能就有比较剧烈的变化,我们应该找到这些变化的数据,并分析变化背后的原因,而不是让它淹没在整月汇总数据的表象之中。

    2.按空间细分

    空间主要是指按地域进行划分,包括世界、洲、国家、省份、城市、区等等。

    比如说,把全国的 GDP 数据,细分到每一个省份。

    空间作为一个相对抽象的概念,也可以代表其他与业务相关的各种事物,比如产品、人员、类别等等,只要有助于理解事物的本质,都可以尝试拿来进行细分。

    3.按过程细分

    把业务细分为一些具体的过程,往往能够让复杂的问题简单化。

    比如说,把订单发货细分为 5 个过程,想办法提升每个过程的效率,从而缩短发货的时间。

    再比如,把用户的生命周期,细分为 5 个重要的过程,即:获取、激活、留存、盈利、推荐。

    4.按公式细分

    有时候一个指标,是可以用公式计算出来的。

    比如说,销售额 = 销售数量 * 平均单价,销售数量 = 新客户购买数量 + 老客户购买数量,以此类推。

    再比如,在财务分析中,权益净利率 = 资产净利率 * 权益乘数,其中:资产净利率 = 销售净利率 * 资产周转率,以此类推。

    5.按模型细分

    数据分析的模型有很多,我们可以根据业务的实际情况,选择合适的模型,在此基础上进行细分,得出相应的分析结论。

    比如说,按照波士顿矩阵,把企业产品细分为「市场占有率」和「销售增长率」两个维度,然后画一个四象限矩阵图,其中每个象限就代表一类产品,即:明星产品、金牛产品、瘦狗产品和问题产品,对每一类产品,分别建议采取不同的发展策略。

    再比如,按照 RFM 模型,把客户按三个维度进行细分,即:最近一次消费时间间隔(Recency)、消费频率(Frequency)和消费金额(Monetary),从而得到 8 种客户类别,从而有针对性地采取不同的营销策略。

    数据挖掘要解决的问题有哪些?
    刘老师 数据分析师

    1.可伸缩

    由于数据产生和采集技术的进步,数太字节(TB)、数拍字节(PB)甚至数艾字节(EB)的数据集越来越普遍。如果数据挖掘算法要处理这些海量数据集,则算法必须是可伸缩的。许多数据挖掘算法采用特殊的搜索策略来处理指数级的搜索问题。为实现可伸缩可能还需要实现新的数据结构,才能以有效的方式访问每个记录。

    例如,当要处理的数据不能放进内存时,可能需要核外算法。使用抽样技术或开发并行和分布式算法也可以提高可伸缩程度。

    2.高维性

    现在,常常会遇到具有成百上千属性的数据集,而不是几十年前常见的只具有少量属性的数据集。在生物信息学领域,微阵列技术的进步已经产生了涉及数千特征的基因表达数据。具有时间分量或空间分量的数据集也通常具有很高的维度。

    例如,考虑包含不同地区的温度测量结果的数据集,如果在一个相当长的时间周期内反复地测量,则维数(特征数)的增长正比于测量的次数。为低维数据开发的传统数据分析技术通常不能很好地处理这类高维数据,如维灾难问题。此外,对于某些数据分析算法,随着维数(特征数)的增加,计算复杂度会迅速增加。

    3.异构数据和复杂数据

    通常,传统的数据分析方法只处理包含相同类型属性的数据集,或者是连续的,或者是分类的。随着数据挖掘在商务、科学、医学和其他领域的作用越来越大,越来越需要能够处理异构属性的技术。

    近年来,出现了更复杂的数据对象。这种非传统类型的数据如:含有文本、超链接、图像、音频和视频的Web和社交媒体数据,具有序列和三维结构的DNA数据,由地球表面不同位置、不同时间的测量值(温度、压力等)构成的气候数据。

    为挖掘这种复杂对象而开发的技术应当考虑数据中的联系,如时间和空间的自相关性、图的连通性、半结构化文本和XML文档中元素之间的父子关系。

    4.数据的所有权与分布

    有时,需要分析的数据不会只存储在一个站点,或归属于一个机构,而是地理上分布在属于多个机构的数据源中。这就需要开发分布式数据挖掘技术。分布式数据挖掘算法面临的主要挑战包括:

    如何降低执行分布式计算所需的通信量?如何有效地统一从多个数据源获得的数据挖掘结果?如何解决数据安全和隐私问题?

    5.非传统分析

    传统的统计方法基于一种假设检验模式,即提出一种假设,设计实验来收集数据,然后针对假设分析数据。但是,这一过程劳力费神。当前的数据分析任务常常需要产生和评估数千种假设,因此需要自动地产生和评估假设,这促使人们开发了一些数据挖掘技术。

    此外,数据挖掘所分析的数据集通常不是精心设计的实验的结果,并且它们通常代表数据的时机性样本(opportunistic sample),而不是随机样本(random sample)。

    注册电脑版

    版权所有 2003-2020 广州环球青藤科技发展有限公司