问答详情

数据分析的过程是怎样的?

1309次观看
标签: 数据分析 数据分析过程
老师回答

1、数据的需求

要进行数据分析,数据是必须的,它是根据指导分析的人员或客户的要求指定的。将在其上收集数据的实体的一般类型称为实验单位(例如,个体与群体)。可以指定和获得有关人口的特定变量。

2、数据的收集

数据的收集来源方式很多,它是是从各种来源收集的。数据分析师可以将需求传达给数据的管理人员,如组织内的信息技术人员。还可以从环境中的传感器(例如监控,卫星等)收集数据。

3、数据的处理

数据的处理是用于将原始信息转换为可操作的情报或知识的情报周期的各个阶段在概念上类似于数据分析中的各个阶段。

4、数据的清理

数据一旦经过组织和处理,数据很有可能不完整,可能会包含重复项或包含错误。由于数据输入和存储方式存在问题,因此需要清理数据。数据清理是防止和纠正这些错误的过程。

5、数据的展示

一旦分析了数据,就可以以多种格式将其报告给分析用户,以支持他们的要求。用户可能会有反馈,这会导致其他分析。因此,许多分析周期都是迭代的。

免费直播

    相关推荐
    数据分析方法论有哪些?
    刘老师 数据分析师

    1、PEST分析法

    PEST,也就是政治(Politics)、经济(Economy)、社会(Society)、技术(Technology),能从各个方面把握宏观环境的现状及变化趋势,主要用户行业分析。

    宏观环境又称一般环境,是指影响一切行业和企业的各种宏观力量。

    对宏观环境因素作分析时,由于不同行业和企业有其自身特点和经营需要,分析的具体内容会有差异,但一般都应对政治、经济、技术、社会,这四大类影响企业的主要外部环境因素进行分析。

    政治环境:政治体制、经济体制、财政政策、税收政策、产业政策、投资政策等。

    社会环境:人口规模、性别比例、年龄结构、生活力式、购买习惯、城市特点等。

    技术环境:折旧和报废速度、技术更新速度、技术传播速度、技术商品化速度等。

    经济环境:GDP 及增长率、进出口总额及增长率、利率、汇率、通货膨胀率、消费价格指数、居民可支配收入、失业率、劳动生产率等。

    2、5W2H分析法

    5W2H,即为什么(Why)、什么事(What)、谁(Who)、什么时候(When)、什么地方(Where)、如何做(How)、什么价格(How much),主要用于用户行为分析、业务问题专题分析、营销活动等。

    该分析方法又称为七何分析法,是一个非常简单、方便又实用的工具,以用户购买行为为例:

    Why:用户为什么要买?产品的吸引点在哪里?

    What:产品提供的功能是什么?

    Who:用户群体是什么?这个群体的特点是什么?

    When:购买频次是多少?

    Where:产品在哪里最受欢迎?在哪里卖出去?

    How:用户怎么购买?购买方式什么?

    How much:用户购买的成本是多少?时间成本是多少?

    3、SWOT分析法

    SWOT分析法也叫态势分析法,S (strengths)是优势、W (weaknesses)是劣势,O (opportunities)是机会、T (threats)是威胁或风险。

    SWOT分析法是用来确定企业自身的内部优势、劣势和外部的机会和威胁等,通过调查列举出来,并依照矩阵形式排列,然后用系统分析的思想,把各种因素相互匹配起来加以分析。

    运用这种方法,可以对研究对象所处的情景进行全面、系统、准确的研究,从而将公司的战略与公司内部资源、外部环境有机地结合起来。

    4、4P营销理论

    4P即产品(Product)、价格(Price)、渠道(Place)、推广(Promotion),在营销领域,这种以市场为导向的营销组合理论,被企业应用最普遍。

    可以说企业的一切营销动作都是在围绕着4P理论进行,也就是将:产品、价格、渠道、推广。通过将四者的结合、协调发展,从而提高企业的市场份额,达到最终获利的目的。

    产品:从市场营销的角度来看,产品是指能够提供给市场,被入们使用和消费并满足人们某种需要的任何东西,包括有形产品、服务、人员、组织、观念或它们的组合。

    价格:是指顾客购买产品时的价格,包括基本价格、折扣价格、支付期限等。影响定价的主要因素有三个:需求、成本与竞争。

    渠道:是指产品从生产企业流转到用户手上全过程中所经历的各个环节。

    促销:是指企业通过销售行为的改变来刺激用户消费,以短期的行为(比如让利、买一送一,营销现场气氛等等)促成消费的增长,吸引其他品牌的用户或导致提前消费来促进销售的增长。广告、宣传推广、人员推销、销售促进是一个机构促销组合的四大要素。

    5、逻辑树法

    逻辑树又称问题树、演绎树或分解树等。它是把一个已知问题当成“主干”,然后开始考虑这个问题和哪些相关问题有关,也就是“分支”。逻辑树能保证解决问题的过程的完整性,它能将工作细分为便于操作的任务,确定各部分的优先顺序,明确地把责任落实到个人。

    逻辑树的使用必须遵循以下三个原则:

    要素化:把相同的问题总结归纳成要素。

    框架化:将各个要素组织成框架。遵守不重不漏的原则。

    关联化:框架内的各要素保持必要的相互关系,简单而不独立。

    6、AARRR模型

    AARRR模型是所有运营人员都要了解的一个数据模型,从整个用户生命周期入手,包括获取(Acquisition)、激活(Activition)、留存(Retention)、变现(Revenue)和传播(Refer)。

    每个环节分别对应生命周期的5个重要过程,即从获取用户,到提升活跃度,提升留存率,并获取收入,直至最后形成病毒式传播。

    数据分析思路都有哪些?
    刘老师 数据分析师

    1、趋势分析

    最简单、最常见的数据分析方法,一般用于核心指标的长期跟踪,比如点击率、GMV、活跃用户数。可以看出数据有那些趋势上的变化,有没有周期性,有没有拐点等,继而分析原因。

    2、多维分解

    也就是通过不同的维度对于数据进行分解,以获取更加精细的数据洞察。举个例子,对网站维护进行数据分析,可以拆分出地区、访问来源、设备、浏览器等等维度。

    3、用户分群

    针对符合某种特定行为或背景信息的用户,进行特定的优化和分析,将多维度和多指标作为分群条件,有针对性地优化供应链,提升供应链稳定性。

    4、漏斗分析

    按照已知的转化路径,借助漏斗模型分析总体和每一步的转化情况。例如将漏斗图用于网站关键路径的转化率分析,不仅能显示用户的最终转化率,同时还可以展示每一节点的转化率。

    5、留存分析

    留存分析是一种用来分析用户参与情况/活跃程度的分析模型,考察进行初始行为的用户中,有多少人会进行后续行为。衡量留存的常见指标有次日留存率、7日留存率、30日留存率等。

    6、A/B 测试

    A/B测试是为了达到一个目标,采取了两套方案,通过实验观察两组方案的数据效果,判断两组方案的好坏,需要选择合理的分组样本、监测数据指标、事后数据分析和不同方案评估。

    7、对比分析

    分为横向对比(跟自己比)和纵向对比(跟别人比),常见的对比应用有A/B test,A/B test的关键就是保证两组中只有一个单一变量,其他条件保持一致。

    8、交叉分析

    交叉分析法就是将对比分析从多个维度进行交叉展现,进行多角度的结合分析,从中发现最为相关的维度来探索数据变化的原因。

    数据分析的误区有哪些?
    刘老师 数据分析师

    1、数据分析需要大量投资

    如今,似乎对每一项新技术的投入都必须通过严格的财务支出的筛选过程。“它需要多少费用?”——是IT和业务经理在提议启动项目或部署新工具时需要首先考虑的问题之一。

    有些人认为数据分析本质上是一项代价高昂的工作,因此仅限于拥有大量预算或大量内部资源的企业机构。但是事实并非如此,现在市场上有很多开源工具和其他工具能够帮助展示数据分析的价值;并且基于云系统的大数据架构,也会比传统的数据仓库便宜得多。你只需要明确内部数据存储以及要解决的问题,就可以轻松的在云上使用分析来解决业务问题。

    此外,数据分析通常用于实现三个结果:提高流程效率、实现收入增长和主动进行风险管理,总的来说,数据分析在任何公司的应用中都带来了巨大的成本效益。

    2、你需要“大数据”才能执行分析

    对于许多人来说,大数据和分析的概念是相辅相成的,企业需要在执行分析之前收集大量数据,以便生成业务洞察,改进决策制定等。

    当然,大数据分析的优势也很明确,拥有这些资源的公司利用大数据存储作为促进分析工作的一部分,获得了显着的竞争优势。但是大数据却并不是分析必不可少的搭配。

    分析师需要特定的数据,而不是更多的数据。要想更好地支持决策和提高绩效,企业必须更多的考虑业务用户,确定他们需要访问哪些数据,如何呈现数据,而不是关注更多的数据。95%以上的用户会寻找和他们工作相关的信息来支持他们进行决策,来提高业务表现,所以企业需要以最简单的格式向他们提供这些信息,帮助他们快速定位重要信息。

    3、分析消除了人类的偏见

    自动化系统执行的方式不应该存在偏见,但技术是由人类建立的,因此消除所有偏见几乎是不可能的。

    有些人认为分析和机器学习消除了人类的偏见,不幸的是,这并没有实现。算法和分析使用“训练数据”进行调整,并将重现“训练数据”所具有的任何特征,在某些情况下,这会在分析过程中引入良性偏见,但也有可能带来更严重的偏见——因为“算法这么说”并不意味着答案是公平的或者有用的。

    4、最好的算法意味着绝对的胜利

    事实证明,有了足够的数据,有时算法无关紧要。谷歌的工程师认为,数据有着不合理有效性 ,简单的统计模型,加上极大量的数据,比包含大量特征和总结的“智能优越模型”能输出更优质的结果。

    因此,在某些情况下,只需处理更大量的数据就可以获得最佳效果。

    5、算法是安全的

    人们固执地信任统计模型和算法,并且随着分析程序的组织构建,他们会越来越依赖复杂的模型来支持决策。这或许是因为用户并不觉得他们有能力挑战模型,因此他们必须相信构建它们的“聪明人”。

    比如,在过去的50到60年里,我们反复听到“人工智能将在20年内接管人类工作”的言论,现在也还是有人反复强调这种观点。在我们可以完全信任机器学习和它们输出的结果之前,还有很多事情要做。在那之前,我们需要挑战构建算法和模型的人,让他们解释如何得到答案。这并不是说我们不能依赖于结果,而是说我们需要透明度,这样我们才可以信任和验证分析结果。

    注册电脑版

    版权所有 2003-2020 广州环球青藤科技发展有限公司