作者 | Joos Korstanje
译者 | ronghuaiyang
长期以来,“R, Python, SQL和机器学习”一直是数据科学家的标准工作描述。但随着该领域的发展,这已不足以在就业市场上保持竞争力。
更新你的技能,为2020年数据就业市场准备!
数据科学是一个竞争激烈的领域,人们正在迅速积累越来越多的技能和经验。这导致了机器学习工程师的工作描述越来越丰富,因此我对2020年的建议是,所有的数据科学家也需要成为开发人员。
为了保持竞争力,你一定要为新工具带来的新工作方式做好准备。
敏捷是一种组织工作的方法,已经被开发团队大量使用。数据科学的角色越来越多地由那些最初的技能是纯软件开发的人来扮演,这就产生了机器学习工程师的角色。
越来越多的数据科学家/机器学习工程师被管理为开发人员:不断地改进现有代码库中的机器学习元素。
对于这种类型的角色,数据科学家必须了解基于Scrum方法的敏捷工作方式。它为不同的人定义了几个角色,这个角色定义确保了持续的改进和顺利地实现。
Git和Github是为开发人员提供的软件,在管理不同版本的软件时非常有用。它们跟踪对代码库所做的所有更改,此外,当多个开发人员在同一时间对同一项目进行更改时,它们还为协助提供了真正的便利。
随着数据科学家的角色变得越来越偏重于开发,使用这些开发工具就成为了关键。Git正在成为一种重要的工作需求,要适应使用Git的最佳实践需要一定的时间。当你独自一人或与他人合作时,很容易开始使用Git,但是当你加入一个有Git专家的团队,而你仍然是一个新手时,你可能会比想象的更加困难。
数据科学也在改变的是我们思考项目的方式。数据科学家仍然是用机器学习回答业务问题的人,一如既往。但是,越来越多的数据科学项目是为生产系统开发的,例如作为大型软件中的微服务。
与此同时,高级模型的CPU和RAM消耗越来越大,特别是在处理神经网络和深度学习时。
对于数据科学家的工作描述,不仅要考虑模型的准确性,还要考虑项目的执行时间或其他工业化方面,这一点变得越来越重要。
虽然机器学习的工业化正成为数据科学家的一个严重的约束,但它也成为数据工程师和IT的一个严重约束。
当数据科学家可以致力于减少模型所需的时间时,IT人员可以通过改变速度更快的计算服务来做出贡献,这些计算服务通常可以通过以下一种或两种方式获得:
云:将计算资源转移到外部供应商,如AWS、Microsoft Azure或谷歌云,使得建立一个可以从远处访问的非常快速的机器学习环境变得非常容易。这要求数据科学家对云功能有基本的了解,例如:使用远程服务器而不是自己的计算机,或者使用Linux而不是Windows / Mac。 PySpark可以在并行(大数据)系统上编写Python 大数据:更快的第二个方面是使用Hadoop和Spark,这两个工具允许同时在多台计算机(工作节点)上并行处理任务。这要求使用不同的方法来实现数据科学家的模型,因为你的代码必须允许并行执行。
最近,数据科学家仍然认为NLP和图像识别仅仅是数据科学的专门化,并不是所有人都必须掌握。
你需要理解深度学习:基于人脑思想的机器学习
但是,即使在“常规”业务中,图像分类和NLP的用例也越来越频繁。在当今时代,至少对这些模型没有基本的了解是不可接受的。
即使你在工作中没有此类模型的直接应用,也可以很容易地找到实际操作的项目,并使你能够理解图像和文本项目中所需的步骤。
祝你好运,同时提高你的技能,不要犹豫,保持警惕,一直在学习。