如何拿到offer可以不去吗知名深度学习offer

热门推荐:
声明:本文由入驻搜狐公众平台的作者撰写,除搜狐官方账号外,观点仅代表作者本人,不代表搜狐立场。
  欢迎转载,转载请注明出处和作者
  文|夏晓萌
  美誓,理性美容平台
  提供真正有用的深度美丽资讯
  经历了最难就业季和更难就业季,终于, 770多万应届毕业生,一起共度史上难上加难就业季了。更崩溃的是,还有很多以前“先就业”的前辈们带着一两年的工作经验开始“再择业”了。。。
  在如此严峻的就业形势下,在如此庞大的求职队伍中,要想不做分母,就不能打无准备之仗,请教了一些学长学姐和资深HR之后,小夏发现除了你的硬技能之外,被说得最多得就是----形象!
  本来小夏以为面试穿个职业装就好了,结果被某毒舌HR学姐说:
  你不觉得这个职业装真的很装么?
  之后耳提面命一大通,小夏顿悟了---不同的行业也是有不同的风格偏好的,而能进入到面试阶段证明了你的硬功起码是没问题的,那么拼软实力的阶段首先要拼的就是面子工程。毕竟饮食男女无论身份职位,看一个人首先第一眼看的都是形象和眼缘啊。
  今天,就和小夏一起干了面试这碗汤。
  放之四海而皆准的小鲜肉最易犯错误
  就业高峰,初出茅庐的学生党占绝大多数,带着很多单纯稚嫩的学生气。对于这一丢丢真挚的傻气不必太纠结,因为大家都一样,而且很多进校园招聘的企业每年都会接触这样的职场小鲜肉,会给予很多的理解。
  1单纯过头
  单纯的傻气不代表呆板、不代表纯日常。像这样,太朴素、学生味的打扮,最好还是不要了。
  2饰品浮夸
  在一众黑压压的面试现场,巧妙地搭一些小饰品,像小丝巾、低调的项链、精致的手表等可以给你的形象加分。不过对于华丽的饰品,或者繁复过多的搭配可要格外注意了,美则美矣但一不小心就会给人留下浮夸、拖沓的印象。
  3颜色太花哨
  面试的时候,低调沉稳的打扮更会给人一种内敛专业、值得信任的感觉,所以糖果色的行头还是放在面试以外的机会穿吧,这些亮眼跳跃的颜色、花哨可爱的装束会给面试官一种浮躁、幼稚、难当重任的感觉。
  4性感过了头
  不管太阳多大,内心多热情都不要吊带短裤的去面试,更不要抱着色诱面试官的侥幸心理过于暴露地参加面试。你怎么就知道面试官不是个女的,或者老板娘呢。咳咳,退一万步如果是色诱,也还是长得好比较重要吧。
  5穿得太高调
  有人内心深深扎根“找工作就像找对象”的概念,于是对于自己狂野霸气的内心丝毫不加掩饰,豹纹、皮草、奢侈品大肆上身。然而大多数公司招的是做事情的员工,可不是指点江山、豪气万丈的老佛爷呀。而且就算是找对象,初次见面也还是轻口味一点的好。
  6细节不注意
  细节上最容易被注意到的就是头发、指甲、衣服褶皱和线头。千万不要行头完美,却偏偏顶着一头黯淡无光、分叉毛躁或者已经冒油的头发,或者指甲缝里还有泥,又或者涂了个一眼就看得出的指甲油!
  在发型上,利落的短发、别致的盘发、有质感的披肩发或者整齐的马尾都是稳妥合适的选择。面试前注意休息、给头发做个护理,注重细节,任何时候都不过分。
  指甲剪干净或者适当修剪一个不夸张的形状,一点透明指甲油是无妨的。
  衣服不需要大牌,但是至少请洗干净、熨烫平并且把线头都剪剪干净。
  7素面朝天或者浓妆艳抹
  如果你平时是连护肤都觉得麻烦的自(su)然(yan)派(biao),那到了面试时候还是稍微涂涂抹抹吧,遮一下毛孔、提一下肤色、修一个眉毛、备一支口红拔一下精气神。如果你平时是爱好烟熏妆的浓(ye)妆(dian)派(pa),面试的时候还是收敛一些的好。
  嗯,在通往职场的道路上,素面朝天和浓妆艳抹都是不够好看甚至不够礼貌的。
  大原则弄准了就够了吗?当然不!菜还分八大菜系N多个流派呢,不同行业对着装和风格的要求也是不同的,聪明的你一定会跟小夏一样先研究好要去面试企业的特点和企业文化,对症下药,要让他们一看就觉得:“这个风格是自己人。”的感觉,成功率当然就更高。
  一、根据场合选择衣服 1学生党
  之前一心学习毫无职场经验、资金储备的学生党,求职时候实在不知如何下手的话,就去校园附近的正装商场逛一圈好了。选择一套价格适中,合身的套装就好。也许多年以后回顾的时候会觉得很丑很呆,但是毕竟是迈向职场的第一步,干净、整齐、得体、态度是更重要的。
  金融行业一直是就业的热门选择,烫金的资本环境、体面的工作氛围和令人艳羡的工资水平无疑也要求了身在其中的员工除了有过硬的专业素养之外,还要有光鲜得体的形象。
  一般来说金融行业中,像银行、证券、投资公司等都要求工作时都要求统一的商务套装,所以在面试的时候也要贴合他们工作中的风格。一套黑色、深蓝的裤装,搭配精致的衬衫,是最安全、得体的。
  尤其要注意不管牌子怎样,质感一定要好,要干净平整。具体可以戳这里看美誓往期的。
  或者穿上及膝的有质感的裙装,显示出专业性和责任感
  3广告媒体
  在充满时尚、创意、年轻气息的工作环境中,形象本身就是专业素养的体现。巧妙的色彩搭配、流行元素的渗透、精致配饰的点缀等等都是实力的加分点。不过,切忌太过夸张、怪异的打扮。
  针织连衣裙+过膝长靴,温暖而性感,简洁又时尚
  衬衫裙,简洁随性又不乏设计感
  保守的衬衫搭配一条颇具心机的半身裙,相得益彰
  4行政、律政
  色彩上不用像金融界的工装一样,深色走天下;风格上不能和时尚界的新潮和随性相比较。行政律政的工作更要求稳重和权威。
  关于这方面的打扮,在外可以学全英最美律师Amal Clooney,也就是迷倒乔治克鲁尼的律政佳人啦。
  一套粗呢材质的粉格子套裙,活泼而独特,女人味十足又专业权威
  纯色背心上衣,印花宽腿裤,黑白经典配色。大方得体,不管是外出商谈还是室内办公都可以兼顾
  可以大胆的尝试色彩,但一定要保证衣服的质地和剪裁,同时要注意全身颜色不宜过多,而且杜绝繁杂的配饰
  国外就不多说了,而在国内,把我们的彭麻麻作为范例就足够了
  优雅、得体、美,大概就是这个意思吧。
  5软件互联网
  在互联网+的时代里,在大众创业万众创新的大背景下,互联网占据的生活比重越来越大,软件互联网行业也在招聘季占了半壁江山。后台、前端、测试、设计等等为大家提供了很多岗位。
  很多人提到这种科技公司似乎就感受到了人字拖、蓬头垢面的潘糠瘴В欢肪呈谴蠹业模蜗笫亲约旱摹U饫喙灸昵峄⒎瘴Э硭桑匀绻阒辛思际醯亩疚薹ㄗ园危敲淳筒惶枰案锫摹⒁凰坎还叮庖膊灰馕蹲畔朐趺创虬缇驮趺创虬纭V傲餍泄拇肱竦男型反蠹铱梢宰魑慰寂丁
  格子衬衫是广大程序员/媛的标配,想要出彩很容易,加一件朴素的外套即可
  一条简单的连衣裙,没有商务套裙的板正和严肃,显得亲切而温柔
  一件普通T恤搭配铅笔裤和短靴,这样一身日常装,配上你的技术和智慧,应付面试足矣
  工科女、程序猿也是温柔优雅的,一袭白裙显得内敛而妥帖
  6公务员
  印象里,公务员是铁饭碗,代表福利甚至权利。可是,公务员改革在即,在未来,公务员可能也只是万千岗位中的一种,仅此而已。并且,“人民公仆”的核心在此,公务员会越来越重视服务意识和实干精神。所以,公务员的面试,朴素、大方、整洁就好。
  一定穿正装套装,否则在面试现场你就成了另类。黑色中跟皮鞋,如果是裙装配肉色丝袜。实在害怕千人一面的话,可以在衬衫上稍做手脚:浅粉、浅蓝、条纹或者褶皱V领等点到为止即可,切忌花哨乖张。
  二、面试妆
  之前说到素颜不好,浓妆不好,那么就画一个清新的裸妆提一下气色吧。
  Step 1:打底
  充足的美容觉→彻底清洁→化妆水→精华→眼霜→乳液→清透的气垫BB→散粉定妆
  如果有痘痘或者痘印,在BB之后定妆之前用遮瑕膏盖一盖。
  Step 2:眉毛
  用和发色相近的眉笔或者眉粉顺着自己已经修好的眉毛扫一个干净利落的眉型提神就可以了,无需太棱角分明。可以查看包教包会的画眉教程(零失误修眉那个),也可以按照下图的方式画一个更简单的一字平眉。
  上边框,从眉端描到眼梢的垂直延长线(红色虚线处),然后延伸到眼尾的垂直延长线(蓝色虚线处),自然衔接画出眉峰。下边框,从眉端自然衔接到上边框尾部。然后填充。如果怕不对称,你还可以用一把尺。。
  Step3:眼妆
  l 眼影
  选用最自然普遍的大地色眼影盘,注意不要太过闪亮,哑光或者稍加珠光就好。
  闭上眼睛,用A颜色在整个眼头(1+2+3区域)打底,用B颜色打底眼窝(2+3区域),在用C和D强调眼尾(3区域)即可。肉眼泡的妹子可以调节深棕色比例,避免珠光浅色部分让眼睛显得更肉和浮肿。
  l 睫毛、眼线
  先用睫毛夹从根部夹起,使睫毛弯的更自然。
  然后用手指拉起眼皮,用平和亲切的深棕色眼线笔沿着睫毛根部画出内眼线。
  之后画睫毛上面的眼线,并且在眼尾稍稍拉长一点点,再用棉棒晕染开。
  Step4:腮红
  按照自己的脸型刷腮红,要注意颜色不要太重,显示出好气色就好,分脸型的腮红教程查看。
  Step5:嘴唇
  选择中性半亚光的珊瑚色唇膏,低调优雅且提升肤色和气色。千万不要用唇蜜或者唇彩涂出一嘴油汪汪。
  ?简单而精致的面试妆就完成啦~?
  还可以戳这里参考跟表姐学见家长的。。。,其实见家长和面试,很多地方是通用的嘛。
  最后,看官请坐,让我再说道两句。
  “形我所欲也,内涵亦我所欲也,唯有二者得兼,职场节节高也。”
  工作和社会不会因为你是一朵娇花而格外怜惜你,外表的光鲜亮丽是面试过程中的加分项,然而决定最终录取与否以及今后职场生涯进阶的核心竞争力永远是头脑、实力、技术、教养、人品。加油,一起共勉!
  部分图片来源于网络,若有版权问题请联系本号
欢迎举报抄袭、转载、暴力色情及含有欺诈和虚假信息的不良文章。
请先登录再操作
请先登录再操作
微信扫一扫分享至朋友圈
美誓,理性美容第一平台,为你提供真正有用的深度美丽资讯。理...
台湾知名美容专家,美容教父,“牛尔娜露可NARUKO”品牌创始人。
台湾著名造型师,《美丽俏佳人》主讲老师,被业界称为亚洲美容天王!
国际著名造型专家,殿堂级整体形象顾问,意大利KOEFIA国际学院教授。
美肤疗养专家/芳疗专家-秦彬老师,《我最想要的美丽书》作者。
中央圣马丁学院独家视频栏目,和鬼才设计师学作魅力大反派。
时装传媒集团作为中国最具实力的综合出版传媒集团,至今已有34年的历史。机器学习与深度学习 – breakblack
12年8月提着一个行李箱降落在匹兹堡机场。没找住的地方,也不知道CMU应该怎么去。对未来一片迷茫,但充满乐观。 现在,刚完成了博士期间最后的一场报告,在同样的机场,不过是在等待离开的航班。
回想过去的五年,是折腾的五年,也是自我感悟和提升的五年。这里我尝试记录这五年主要做过的事情和其中的感想,希望对大家有所启发。
第0年:3/11-8/12
我第一次申请美国的博士是在11年,但拿到的offer并没有特别合适的导师,于是就北上投奔文渊去了。 我当时在百度商务搜索部门做广告的点击预估。具体是使用机器学习来预测一个广告是不是会被用户点击。 这时候离“大数据”这个词流行还有两年,但百度那时候的数据即使现在来看仍然是大的。我的任务是如何高效的利用数百台机器快速的在数十T的数据上训练出模型。
当时产品用的算法基于LBFGS,我于是想是不是可以换个收敛更快的算法。没几天就找到个不错 。但实现上发现了各种问题,包括性能,收敛,和稳定性。而且那时有的就是一个裸的Linux和很老版本的GCC,什么都是需要从头开始写。花了大量时间做系统优化,算法改动,和线上实验,最后一年后在整个广告流量上上了线。
现在再回顾会觉得整个一年时间都在打磨各种细节上,有时候为了5%的性能提升花上上千行代码。这些都导致算法过于复杂,有过度设计之嫌。但深入各个细节对个人能力提升很大,而且很多遇到的问题成为了之后研究方向的来源。一些算法上的思考曾写在这里,当时候深度学习刚刚出来,冥冥中觉得这个应该是大规模机器学习的未来,不过真正开始跟进是好几年以后了。
11年12月中的时候突然心血来潮随手把材料重新寄了一遍,就选了CMU和MIT,结果意外收到了CMU的offer。有天在百度食堂同凯哥(余凯)和潼哥(张潼)吃饭,我说收了CMU offer,在纠结去不去。他们立马说去跟Alex Smola啊,他要要加入CMU了,我们给你引荐下。
记得是离开的前一天才开始打包行李,早上去公司开完会,中午离职,跟小伙伴打招呼说出个国,然后就奔机场了。那天北京天气特别好,完全不记得前一天雾霾刚爆了表。
第一年:9/12-8/13
第一年的主要事情是熟悉环境和上课。CMU课程比较重,博士需要学8门课,每门课工作量巨大。而且要求做两门课助教,做助教比上课更累。
这一年上的课中对我最有用的是“高级分布式系统”。之前在上交ACM班的时候已经学过很多质量都还不错课,纯知识性的课程一般对我帮助不大。但这门课主要是读论文,然后大家讨论。不仅仅是关于知识,很多是对设计理念的领悟。大家知道对于系统而言,设计是一门艺术而不是科学,这是设计者审美和哲学理念的体现。同时系统界历史也是由一波又一波的潮流组成,了解历史的发展以及其中不断重复的规律非常有意义。
那年这门课上课老师是Hui Zhang(神人之一,20多岁就在CMU任教了,学生包括了Ion Stoica,他是Spark作者Matei的导师),他有非常好的大局观,对于“Why”这个问题阐述非常到位。我是通过这门课才对分布式系统有了比较清晰的认识。两年之后我偶然发现我的一篇论文也在这门课的阅读列表里了,算是小成就达成 。
除了上课,更重要是做研究。我去CMU的时候Alex那时还在Google,而且没经费,所以把我丢给了 Dave Andersen。于是我有了两个导师,一个做机器学习,一个做分布式系统。
前面半年都是在相互熟悉的过程。我们每周会一起聊一个小时。前半年因为Alex不在,所以我们只能视频。Alex那边信号经常不好,而且他有德国和澳大利亚口音,外加思维跳跃,经常我听不懂他说啥只能卖萌傻笑。还是靠着Dave不断的打字告诉我Alex说了什么才度过了前几次的会。
两个导师风格迥异。Alex是属于反应特别快,通常你说一点,他已经想好了接下来十点,要跟上他节奏很难。一般抛出问题的时候他就想好了好几个解决方法。这时候要证明自己的想法比他的更好不容易,需要大量的沟通和实验数据支撑。我想我大概是花了两年证明了在某些方向上我的方案一般更好,所以这时候他就不那么hands-on了。
Dave不会给很多想法,但会帮助把一个东西理解透,然后讲得很清楚。因为我研究方向主要是机器学习上,基本上前两年基本都是我在教Dave什么叫机器学习,而且是尽量不用公式那种教法。
我的第一个研究工作是关于如果划分数据和计算使得减少机器学习求解中的网络通讯量。Alex体现了他的强项,几分钟就把问题归纳成了一个优化问题,然后我们三各自提出一个解法。我做了做实验发现Dave的算法更好。接下来两个月把算法做了很多优化,然后又做了点理论分析就把论文写了。
可惜这个想法似乎有点超前,虽然我们一遍又一遍的改进写作,但投了好几个会审稿人就是不理解,或者觉得这个问题不重要。那个时候学术界已经开始吹嘘“大数据”,但我觉得其实大部分人是不懂的,或者他们的“大数据”仍然是几个GB的规模,烤U盘需要十来分钟的那种。
这是我在CMU的一个工作,我觉得挺有用,但却是唯一没能发表的。
当时跟我坐同一个办公室的是Richard Peng,他做的是理论研究。我经常跟他讨论问题,然后有了些想法合作了一个工作。大体思想是把图压缩的快速算法做到矩阵的低秩近似上。这个工作写了三十页公式但没有任何实验,我主要当做写代码间隙的悠闲娱乐,不过运气很好的中了FOCS。
坦白说我不是特别喜欢纯理论这种,例如在bound的证明中很多大量的项直接丢掉了,导致我觉得bound特别的近似。对于做系统的人来说,最后拼的是常数。这个工作中这种大开大合的做法我觉得很不踏实。所以我觉得以后还是应该做更实在点的东西。
在CMU回到了去百度前的一周七天工作无休的节奏。每周至少80个小时花在学校。如果累了就去健身房,我一般晚上12点去。不仅是我一个人,大家都很努力,例如凌晨的健身房,早3点的办公室,四处都可以见到中国或者印度学生。我那时候的室友田渊栋花在学校的时候比我多很多。
那一阵子有读了很多关于优化的文章。其中对我启发最大的是Bertsekas写于80年代末的那本关于分布式计算的书。此书可以认为是MIT控制领域黄金一代研究成果总结,换到现在仍然不过时。
受启发我转去研究异步算法,就是分布式下不保证数据的及时性来提升系统性能。我基于在百度期间做的算法,做了一些改进和理论分析,然后投了NIPS。
投完NIPS就动身去了Google Research实习。那时候Google Brain成立不久,在“宇宙的答案”42楼,包括Jeff Dean,Geoffrey Hinton,Prabhakar Raghavan好些大牛挤在一起,加起来论文引用率能超80万。
Alex跟我说,你去读读Jure Leskovec的文章,学学人家怎么讲故事。我在Google也尝试用了些用户GPS数据来对用户行为建模。可是写文章的时候怎么也写不出Jure的那种故事感,发现自己不是那块料。这篇文章因为用了用户数据,恰逢Snowden让大家意识到隐私的重要性,历经艰辛删了一半结果Google才允许发出来。有些累觉不爱。
不过在Google期间我主要时间花在研究内部代码和文档上。Google的基础架构很好,文档也很健全。虽然没有直接学到了什么,但至少是开了眼界。
第二年:9/13-8/14
这学期上了Tuomas Sandholm的机制设计,此乃另一大神,例如最近德州扑克赢了专业选手,之前开公司也卖了上亿。不过这门课我是完完全全没学懂,连承诺的课程大作业都没怎么做出来。之后的两年里我一遇到Tuomas他都会问下有什么进展没。我只能远远看见他就绕开。
NIPS被拒了,发现审稿人不懂线程和进程的区别,有点沮丧。隔壁实验室一篇想法类似但简单很多的论文倒是中了oral,所以那阵子压力很大。Alex安慰说这种事情常有发生,看淡点,然后举了很多自己的例子。
之后想了想,一篇好文章自然需要有足够多的“干货”,或者说信息量, 但一篇能被接受的文章需要满足下面这个公式:
文章的信息量 / 文章的易读性 & 审稿人水平 * 审稿人花的时间
对于机器学习会议,因为投稿量大,所以审稿人很多自然平均水平就会下降。而且很多审稿人就花半个小时到一个小时来读文章,所以公式右边数值通常是很小,而且不是我们能控制。
如果文章的信息量不大,例如是改进前面工作或者一些简单的新想法,那么公式成立的概率很大。而对于信息量大的文章,就需要努力提升易读性,包括清晰的问题设定,足够的上下文解释等等。而前面投的那篇NIPS,以及更早的那个被拒工作,就是因为我们假设了审稿人有足够多的相关专业知识,而我们塞进了太多干货使得大家都读糊涂了。
即使对于已经发表的文章,上面那个公式同样可以用来衡量一篇论文的引用率。例如经常见到干货很多的文章没有什么人引用,而同时期的某些工作就是考虑了其中简单特殊情况结果被大引特引。
接下来的半年我主要在做一个通用的分布式机器学习框架,是想以后做实验方便些。名字就叫parameter server,沿用了Alex 10年论文提出的名字。花了很多时间在接口设计上,做了好几个版本实现,也跑了些工业界级别的大规模的实验。
不过真正花了我大量时间的是在写论文上。目标是把这个工作投到OSDI上,OSDI是系统界两大会之一。我们预计审稿人跟Dave两年前状态差不多,不会有太多机器学习和数学背景,所以需要尽量的少用公式。整整一个月就花在写论文上,14页的文章满满都是文字和示意图。不过努力没有白费,最终论文被接受了。随后又花了好几周准备大会报告上。相对于平时花一周写论文,两三天准备报告,这次在写作和报告水平上有了很大的提升。没有放进去的公式和定理投了接下来的NIPS,这次运气很好的中了。
有了文章后稍微心安了点可以更自由的做些事情。
寒假回了趟国,跑去百度找了凯哥和潼哥。潼哥说他最近有个想法,于是快糙猛的把实验做了然后写了篇论文投了KDD。同时期Alex一个学生也把他一个一直想让我做但我觉得这个小trick不值得我花时间的想法投了KDD,结果中了最佳论文。作报告那天我在的会场稀稀疏疏几个人,他们隔壁会场人山人海。这个使得好长一段时间我都在琢磨是不是还是要跟着导师走比较好。
那时凯哥在百度搞少帅计划,觉得蛮合适就加入了。这时凯哥正带着一大帮兄弟轰轰烈烈的搞深度学习,我自然也是跳坑了。试过好几个想法后,我觉得做做分布式的深度学习框架比较对胃口。我挑了CXXNet作为起点,主要是因为跟天奇比较熟。同时也慢慢上手跑一些Alexnet之类的实验。
我是因为少帅计划才开始开始做深度学习相关项目,凯哥也很支持我做开源开发回馈社会而不是只做公司内部的产品。但在少帅期间并没有做出什么对公司有帮助的事,很是惭愧。
第三年:9/14-8/15
回CMU后Alex看见深度学习这么火,说我们也去买点GPU玩玩。但我们比较穷,只能去newegg上掏点便宜货。这个开启了轰轰烈烈的机器折腾之旅。整个一年我觉得我都在买买买装装装上。最终我们可能就花了小几万刀攒出了一个有80块GPU的集群。现在想想时间上花费不值得,而且为了图便宜买了各种型号的硬件导致维护成本高。但当时候乐在其中。具体细节可以看这篇blog
这一年写了很多parameter server代码,同时花了很时间帮助用户使用这些代码。很难说做得很成功,现在想想有几个原因。写代码时我会优先考虑性能和支持最多的机器学习算法。但正如前面的错误,忽略了代码的易读性,从而导致只有少部分人能理解代码从而做一些开发。例如我尝试让Alex组的学生来使用这些代码,但其中的各种异步和callback让他们觉得很是难懂。其次是没有人能一起审核代码接口,导致这些接口有浓浓的个人味道,很难做到对所有人都简单明了。
不过幸运的是找到一帮志同道合的小伙伴。最早是我发现天奇在写xgboost的分布式启动脚本,我看了看发现挺好用,就跟他聊了聊。聊下的发现有很多基础部件例如启动脚本,文件读取应该是可以多个项目共同使用,而不是每个项目都造一个轮子。于是跟天奇在Github上创建了一个叫DMLC的组织,用来加强合作和沟通。第一个项目是dmlc-core,放置了启动和数据读取代码。
DMLC的第二个新项目叫wormhole。想法是提供一系列分布式机器学习算法,他们使用差不多相同的配置参数来统一用户体验。我把parameter server里面的机器学习相关算法移植了过来,天奇移植了xgboost。Parameter server原有的系统代码简化到了ps-lite。
中途我听百度同学说factorization machine(FM)在广告数据上效果不错,所以在wormhole上实现了下。针对分布式做了一些优化,然后投了WSDM。前后没有花到一个月,但神奇的竟然拿了最佳论文提名。
在wormhole的开发中发现一个问题,就是各个算法还是挺不一样,他们可以共用一些代码,但又有各自的特点,需要特别的优化来保证性能。这样导致维护有些困难,例如对共用代码的改动导致所有项目都要检查下。总结下来觉得一个项目最好只做一件事情。所以天奇把xgboost代码放回原来项目,我也把FM独立出来一个项目叫difacto。
通过一系列的项目,我学到的一点是,以目前的水平和人力,做一个通用而且高效的分布式机器学习框架是很难的一件事情。比较可行的是针对一类相似的机器学习算法做针对性的项目。这个项目的接口必须是符合这类算法结构,所以做算法开发的同学也能容易理解,而不是过多暴露底层系统细节。
真正的让DMLC社区壮大的项目是第三个,叫做MXNet。当时的背景是CXXNet达到了一定的成熟度,但它的灵活性有局限性。用户只能通过一个配置项来定义模型,而不是交互式的编程。另外一个项目是zz和敏捷他们做的Minerva,是一个类似numpy的交互式编程接口,但这个灵活的接口对稳定性和性能优化带来很多挑战。我当时候同时给两个项目做分布式的扩展,所有都有一定的了解。然后一个自然的想法是,把两个项目合并起来取长补短岂不是很好。
召集了两个项目的开发人员讨论了几次,有了大致的眉目。新项目取名MXNet,可以叫做mixed-net,是前面两个名字(Minerva和CXXNet)的组合。放弃开发了几年的项目不是容易的决定,但幸运的是小伙伴都愿意最求更好,所以 MXNet进展挺顺利。很快就有了可以跑的第一个版本。
第四年:9/15-8/16
前半年为difacto和MXNet写了很多代码。其实一开始的时候我觉得difacto更重要些,毕竟它对于线性算法的提升非常显著而且额外的计算开销并不大,这对广告预估之类的应用会有非常大的提升。但有次遇到Andrew Ng,我跟他说我同时在做这两个项目,他立即告诉我我应该全部精力放在MXNet上,这个的未来空间会大很多。我一直很佩服Andrew的眼光,所以听了他的建议。
11月的时候MXNet就有了很高的完成度。写了个小论文投去了NIPS的workshop也算是歇了口气。但随后就听到了TensorFlow(TF)开源的消息。由 Jeff Dean领导大量全职工程师开发,Google庞大的宣传机器支持,不出意料迅速成为最流行的深度学习平台。TF对我们压力还是蛮大,我们有核心开发者转去用了TF。不过TF的存在让我领悟到一点,与其过分关心和担忧对手,不如把精力集中在把自己的做得更好。
NIPS的时候MXNet的小伙伴聚了一次,有好几个我其实是第一次见面。随后Nvidia的GTC邀请我们去做报告。在这两次之间大家爆发了一把,做了很多地方的改进。同时用户也在稳步增长。我们一直觉得MXNet是小开发团队所以做新东西快这是一个优势,但随着用户增加,收到抱怨说开发太快导致很多模块兼容性有问题。有段时间也在反思要在新技术开发速度和稳定性之间做一些权衡。
这时一夜之间大数据不再流行,大家都在谈深度学习了。
我也花了很多力气在宣传MXNet和争取开发者上。包括微博知乎上吼一吼,四处给报告。在大量的点赞声中有些陶醉,但很多中肯的批评也让我意识到重要的一点,就是应该真诚的分享而不是简单的吹嘘。
因为大量的媒体介入,整个深度学习有娱乐化的趋势。娱乐化的报道很多都只是一些简单信息,(有偏见)的观点,而没有太多干货。不仅对别人没营养,对自己来说也就是满足虚荣心。与其写这些简单的水文,不如静下心做一些有深度的分享,包括技术细节,设计思路,和其中的体会。
此类分享一个容易陷入的误区是只关注自己做了什么,结果多么好。这些确实能证明个人能力,对于想重复这个工作的人来说会有很大帮助。但更多的人更关心的是适用范围在哪里,就是什么情况下效果会减弱;为什么结果会那么好;insight是什么。这个需要更多深入的理解和思考,而不是简单的展示结果。
这个对写论文也是如此。只说自己的结果比基线好多少只能说明这是不错的工作,但结果再好并不能意味这个工作有深度。
深度学习的火热导致了各种巨资收购初创司不断。Alex也有点按耐不住, 结果是他,Dave,Ash(曾经是YahooCTO)和我合伙弄了一家公司,拿了几十万的天使投资就开工了。Alex写爬虫,Dave写框架,我跑模型,风风火火干了好一阵子。可惜中途Dave跑路去跟Jeff做TF了。后来这个公司卖给了一个小上市公司。再后来我们觉得这个公司不靠谱也就没考虑跟他们干了。
第一次创业不能说很成功,从中学到几点:一是跟教授开公司一定要注意有太多想法但没死死的掐住一个做,二是找一堆兼职的博士生来干活不是特别靠谱,尤其是产品不明确的时候,三是即使要卖公司也一定要做一个产品出来。我们卖的时候给很多人的感觉是团队人太强但产品太弱,所以他们只想要人而已。四是试图想要通过技术去改变一个非技术公司是很难的事情,尤其是过于新的技术。
然后我们就奔去折腾下一个公司。Ash早财务自由所以想做一个大的想法,但这时Alex刚在湾区买了个房,有还贷压力,他选择去了Amazon。于是算是胎死腹中。
随后收到Jeff的邮件说有没有兴趣加入Google,自然这是一个很诱人的机会。同时我觉得小的创业技术性强的公司是不错的选择。但从MXNet的发展上来书,去Amazon是最好选择之一。自己挖的坑,总是要自己填的。所以我以兼职的身份去了Amazon,领着一帮小弟做些MXNet开发和AWS上深度学习的应用。
第五年:9/16-2/17
早在15年初Alex就表示我可以毕业了,但作为拖延晚期患者,迟迟没开始准备。这时候感觉不能再拖了,于是窝在湾区写毕业论文。Alex觉得毕业论文应该好好写,但我对把前面都做完的东西再捣鼓写写实在是没兴趣,尤其是加州太阳那么好,大部分时间我都是躺在后院晒太阳。此时B站已经完全被小学生占领,这边买书也不方便,无聊之余刷了很多起点。然后还写了篇炼丹文。
CMU要求答辩委员会需要有三个CMU老师和一个学校外的。除了两个导师外,我找了Jeff Dean和刚加入CMU的Ruslan Salakhutdinov. 结果Russ随后就加入了Apple,整个委员会的人都在湾区了。Jeff开玩笑说可以来Google答辩。可惜跟CMU争吵了好多次,还是不允许在校外答辩,而且必须要三个人委员会成员在场。这些限制导致答辩一拖再拖,而且临时加了Barnabas Poczos来凑人数。最后是Jeff的助理快刀斩乱麻的协调好了时间把所有东西定好了。没有她估计我还可以拖几个月。
答辩的时候是一个比较奇异的状态,委员会里有Google, Amazon, Apple的AI负责人,剩下两个和我又分别在这三家公司兼职。这个反应了当下AI领域学术界纷纷跑去工业界的趋势。
不过答辩这个事情倒是挺简单,跟平常做个报告没什么太多区别。一片祥和,即使Russ问了MXNet和TensorFlow哪家强这个问题也没有打起来。
答辩后我问委员会说,我在考虑找个学术界的工作,有什么建议没。大家介绍了一大堆经验,不过大家都强调的一个重点是:学术界好忙好忙,而且好穷好穷,工业界的薪水(就差指自己脸了)分分钟秒掉CMU校长。你要好好想。
答辩前一天的晚上,我想了两个问题,一个是“博士收获最大的是什么”,另一个是“如果可以重来会怎么办”。对于第一个问题,这五年时间自然学到了很多东西,例如系统的学习了分布式系统,紧跟了机器学习这五年的发展,写文章做幻灯片做报告水平有提升,代码能力也加强了些。自信上有所提高,觉得既可以做一流的研究,也可以写跟大团队PK的代码。只要努力,对手没什么可怕的。
但更重要的是博士的五年的时间可以专注的把一些事情从技术上做到最好,做出新的突破,这个氛围没有其他地方能给予。
第二个问题的一个选项是当年留在国内会怎么样? 当年百度的伙伴们多数现在都做得很好,都在引领这一波AI的潮流,甚至有好几个创造了上亿价值的公司。所以从金钱或者影响力角度来看,一直在工业界也不差,说不定现在已经是土豪了。
不过我觉得还是会选择读博。赚钱以后还有大把时间可以,但是能花几年时间在某个领域从入门到精通甚至到推动这个领域发展的机会就一次。站在这个领域的高点会发现世界虽然很大,但其实其他领域也使用差不多的技术,有着同样的发展规律。博士期间领悟到的学习的方法可以在各个方向上都会大有作为。
更重要的是理想和情怀。人一生要工作五十年,为什么不花五年来追求下理想和情怀呢?
机器学习是人工智能研究领域中一个极其重要的研究方向,在现今的大数据时代背景下,捕获数据并从中萃取有价值的信息或模式,成为各行业求生存、谋发展的决定性手段,这使得这一过去为分析师和数学家所专属的研究领域越来越为人们所瞩目。
本书第一部分主要介绍机器学习基础,以及如何利用算法进行分类,并逐步介绍了多种经典的监督学习算法,如k近邻算法、朴素贝叶斯算法、Logistic回归算法、支持向量机、AdaBoost集成方法、基于树的回归算法和分类回归树(CART)算法等。
第三部分则重点介绍无监督学习及其一些主要算法:k均值聚类算法、Apriori算法、FP-Growth算法。第四部分介绍了机器学习算法的一些附属工具。
全书通过精心编排的实例,切入日常工作任务,摒弃学术化语言,利用高效的可复用Python代码来阐释如何处理统计数据,进行数据分析及可视化。通过各种实例,读者可从中学会机器学习的核心算法,并能将其运用于一些策略性任务中,如分类、预测、推荐。另外,还可用它们来实现一些更高级的功能,如汇总和简化等。
《统计学习方法》是计算机及其应用领域的一门重要的学科。《统计学习方法》全面系统地介绍了统计学习的主要方法,特别是监督学习方法,包括感知机、k近邻法、朴素贝叶斯法、决策树、逻辑斯谛回归与最大熵模型、支持向量机、提升方法、EM算法、隐马尔可夫模型和条件随机场等。除第1章概论和最后一章总结外,每章介绍一种方法。叙述从具体问题或实例入手,由浅入深,阐明思路,给出必要的数学推导,便于读者掌握统计学习方法的实质,学会运用。为满足读者进一步学习的需要,书中还介绍了一些相关研究,给出了少量习题,列出了主要参考文献。
来自:微博王威廉老师}

我要回帖

更多关于 拿到offer可以不去吗 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信