欢迎来到加倍考研网! 北京 上海 广州 深圳 天津
微信二维码
在线客服 40004-98986
推荐适合你的在职研究生专业及院校
棕榈大道留学offer捷报 丨 美国南加州大学计算机科学博士毒蝎子

棕榈大道留学offer捷报 丨 美国南加州大学计算机科学博士

棕榈大道 2020 申请季录取战绩祝贺棕榈大道学员收获南加州大学计算机科学博士录取 offer!offer 展示▲点击大图查看申请背景辅导回顾 本次斩获 offer 的学员来自国内知名理工院校,有丰富的科研经历,三围也无短板。棕榈导师主要针对文书思路和简历写法做了细致指导和大幅修改,并且辅导了和教授的面试。最终该同学本科直博直接收获 Ph.D CS 的offer!此外,该同学还收获了在美国计算机科学领域均名列前茅的威斯康星大学麦迪逊分校、得克萨斯大学奥斯汀分校博士 offer!项目介绍南加利福尼亚大学(University of Southern California),又译南加州大学,简称南加大(USC),是美国西海岸最古老的顶尖私立研究型大学,位于美国洛杉矶市,是美国大学协会和环太平洋大学联盟成员。在 2020 US.News 全美大学排名中,南加大众多学院居全美前 10,学校在 U.S.News 美国大学综合排名第 22 名,南加大常年被 U.S.News 评为全美本科最难被录取的大学之一。南加州大学计算机科学系如今是计算,信息和数字媒体方面的研究和教育领导者,为学习和研究提供创新性的环境。南加大的计算机科学系涉及多个研究领域, 其量子计算中心拥有世界最强算力的量子计算机,此外互联网域名系统,DNA 计算技术,动态规划算法,图片压缩技术,VoIP 技术,以及世界第一个防病毒软件等都诞生于南加大,如今学校仍掌控着全球仅 13 个的根域名服务器之一。此外,南加大的 CS 毕业生就业前景非常广阔。其地理位置绝佳,实验室多,有 90 余名教授,南加大在硅谷校友人数位居全美高校第四(前三是分别是斯坦福,加州大学伯克利分校和卡内基梅隆大学)。辅导团队申请季主导师: Sunnie棕榈大道研究生主导师香港大学 TESOL 硕士安徽大学 英语专业本科 本科期间选修二语教学并开始在教育机构实习,期间由于成绩优异且性格积极善于沟通,而被选拔为赴台交换生,之后成功申请到了世界一流教育学院香港大学教育学院开设的 Master of Arts in Teaching English toSpeakers of Other Languages 项目,在英语二语教学理论及实践方面继续提升。研究生期间,主导或参与多项文学在英语教学中的应用、写作教学、语法教学等方面的 Research project。专业导师: L 导师华盛顿大学 计算机科学博士华中科技大学-马萨诸塞大学安姆斯特分校 计算机科学学士申请战绩:【香港中文大学】 计算机科学工程博士【芝加哥大学】计算机博士【卡内基·梅隆大学】计算机数据科学硕士......擅长领域:计算机/数据科学/HCI-END-

辩者

美国南加州大学教学质量如何?

南加利福尼亚大学(University of Southern California)又称为南加州大学,是美国最著名的顶尖私立研究型大学,也是美国西海岸最古老的大学之一,位于美国加利福尼亚州洛杉矶市以南2英里处。该校成立于1880年,根据2016年的数据显示,该所学校共有1981名全职教职员工、1365名兼职教职员工,师生比例为1:9,共有18810名本科生以及24591名硕士及博士生。作为世界著名的教育学府,学校拥有顶尖的电影艺术学院,校友获得奥斯卡奖数量居全美,史蒂文·斯皮尔伯格、“星战之父”乔治·卢卡斯等影坛巨匠均是该校校友。其学生综合满意程度为97%。南加州大学入学时间据立思辰留学云介绍,南加州大学入学时间是每年8-9月,秋季入学申请截止日期1月15日,奖学金申请截止日期是12月1日,RD申请录取通知截止日期是4月1日。南加州大学不提供ED/EA申请,USC没有EA,没有ED,不提供春季申请,也没有waitlist政策,但部分秋季申请的学生,可能会录取到春季入学。据学校的观点,春季入学的学生同样能够很好地融入学校并拥有良好的学术表现。南加州大学优势专业影视艺术、人类学、文学历史、比较文学、建筑理论学、生物学、天文学、生物化学、生物物理学、应用力学、生物科学、化学、生物医学工程、化学工程、城市规划、通信工程、生物统计学、新闻管理、金融管理、会计、牙医、媒体学、公共关系学、病理学、经济学、计算机科学等。南加州大学申请条件南加州大学申请条件包括本科要求包括英语要求:TOEFL总分不低于100分,单项不低于20分,IELTS总分不低于7.0分,无单项分数要求,或PTE总分不低于68分,无单项分数要求。如新SAT推理阅读和写作均在650分以上,或ACT英语取得27分以上,可无需递交语言成绩、南加州大学研究生申请包括大学毕业,学士学位,GPA不低于3.0,或者平均分不低于80分;提供托福或者雅思成绩,无最低分要求。南加州大学奖学金南加州大学奖学金介绍;Anna Bing Armold Fellowship和Louis D.Beaumont Fellowship:面向人文学科方面的博士生。Chen Fellowship:仅提供给来自中国福州市的研究生,或是福建协和大学(现福建师范大学的前身)校友的后裔。Morkovin Fellowship:从事语言学、听力学、知觉与行为沟通、人格发展等领域的博士生。James Bridges Scholarship:从事影视创作方面的研究生。George Cukor Scholarship:从事影评研究方面的研究生。Rockwell Dennis Hunt Scholastic Award:面向本科毕业于本校,并且将在此继续研究生学业的学生,在学校举行毕业庆典时,可获得$5,000的奖金。

颜钧

美女学神16岁裸分考进北大,8年的博士学位只用18个月就拿到手!

在我们的认知中,屈指可数的博士都是千里挑一的顶尖人才,而那些钻研于学术领域的女博士们更是引人钦佩。谈及博士学位,最难拿到手的应属难度最高的教育学博士,一般来说都要花费七八年的时间才能攻下来,而今天要说的这位美女学神博士,却在18个月也就是刚好一年半的时间就将教育学博士拿到手,着实令人大叹奇才。戴韵,这个16岁就以高分裸分实打实考进北大的学霸女孩,似乎一开始就以开挂的人生速度赢在了起跑线上。在很多孩子刚刚结束中考,面对高中生活还相当茫然的时候,戴韵已经成为了一名北大的学子。说到她的成长经历,用天才来形容绝不为过:四岁提前入学,跟着比自己大了三四岁的哥哥姐姐们一起学习,却完全能够跟得上学习进度,并且直到高中都保持名列前茅的优异成绩。身为文科学霸的戴韵当时的成绩完全可以排上市里的尖子生,因此考上北大在意料之中。在进入我国一流学府北大就读之后,这位学霸少女并没有停止自己“牛气哄哄”的人生历程。戴韵在北大不仅拿到了广播电视学和经济学双学位,这还不算完,随后她决定出国读博,选择了攻读教育学博士学位。令人难以置信的是,这位长相清清秀秀的女孩却迸发出了惊人的潜力,前后只花费了18个月就将其成功拿下。要知道准备博士论文一般就要花费一年半载的时间,因此正常的读博时间都需要花上好几年,更何况是难度极高的教育学博士;而戴韵却直接将这个时间段缩短了好几倍,这也意味着她花费了相当大的功夫——要在四周时间读完博士课程内的60本书、完成三篇文献综述,同时还要准备博士答辩,真实令人难以想象。天赋因素固然存在,但是其中付出的精力和努力也绝对不可忽视。被问及是如何坚持撑过那段最辛苦的日子,戴韵说,自己明白,只有真正付出,才能够得到应得的成果。要想承受一项荣誉,就必须要承担它带来的相应压力。而在无限的忙碌和压力中,适当调节自己的精神压力同样十分重要。就算忙到日夜颠倒、没日没夜地准备资料、看文献、做课题,也要腾出时间做一些自己喜欢的、能够放松身心的事情,如散散步、浇浇花、做做美食等等,在劳逸结合中达到更高效的水平。可以说,戴韵创下了一个奇迹,却也为无数“挣扎”在专业学术研究中的学子们树立了相当积极的榜样。不畏辛苦、坚持到底、劳逸结合、自我鼓励,或许正是戴韵学习方法最显著的特点。但是,父母并没有给自己过多的学习压力和过高的期望,反而助长了她对于学习的热爱。她说,自己小时候父母忙于工作,和外婆一起生活,并没有人管理自己的学习。但是父母对自己的喜好非常上心,并不要求自己一定要在学业上取得多高的成绩,而是更看重女儿的兴趣爱好发展。这样看似“不负责任”的教育方式实则使得戴韵能够自主滋生对学习的兴趣,就发挥了她的主观能动性,反而比一些生硬强迫式教学好得多。再加上高度的自律和发自内心对学习的热爱,使得戴韵在学习深造之路上坚定不移地走下去,并且最终取得巨大成功,这也是非常重要的原因之一。如今的戴韵是一名学有所成的博士后,在美国南加州大学担任“世界课堂”的项目经理,前途一片光明。我们祝福戴韵,也希望更多的孩子能够学习她的优秀品质,取得一样优异的成就。

辟谷

她一路放养,16岁上北大,18个月拿下博士,成功只因2个字

她是完全可以靠脸吃饭的高颜值美女,但她更是腹有诗书气自华,凭着才华闯出一条属于自己的路。她对于才华,有着不同于一般的理解,她说,所谓才华,就是别人没看到而自己的不懈努力。所谓聪明,其实就是对一件事的专注。小时候,她真的只是一个普通的小女孩,父母在外地工作,跟着不识字的外婆生活。4岁那年,父母决定让她读小学一年级,但并不是因为她是什么神童,而是她姐姐入学了,家里没人跟她玩了。就这么简单,她就上学了。父母当时也就是让姐姐大带小,怕外婆顾不过来。没想到,她还真跟得上,倒不是聪明,就是都得专注。老师上课时,她目不转睛盯着老师,用心听老师说的每一句话。父母本来就没有什么其他要求,能跟得上班,也就谢天谢地了,也没有什么高的要求。但越是没要求,她反而越来越优秀,最小的年龄最高的分数,基本上属于常态。就这样开始了她的学生生涯,到了高中,她的成绩跟她人一样“亭亭玉立”,父母问她想考什么大学,她说自己文科好一些,就上北大吧。父母有点吃惊,知道女儿优秀,却不知道优秀到如此程度。就这样,她16岁上了北大。在北大,她读的是广播电视编导,觉得还有余力,就顺便修了个经济学,就这样,同时拿了双学位。这时她的计划是做一名财经记者。但她在参加北大与南加州大学合作创办的“世界课堂”项目时,忽然又对教育发生了兴趣,觉得应该读个教育博士。于是,就开始申请,被美国加州大学圣塔芭芭拉分校录取,攻读教育博士。教育博士可是最难读的博士之一,平均需要8年,但是她只用了一年半也就是18个月就拿下了。这等于创造了一个奇迹,很多人都不相信,但是这就是事实。这是她智商高太聪明吗?她不认可这个说法。她认为,不过是专注加努力罢了。她说,专注一件事,可以连觉都不睡,也并不觉得苦累。确如她所说,在准备博士资格考试的时候,需要4周时间读完60本书,写出3篇论文,当然还要完成答辩。她知道这是必须完成的,所以就专注做这件事,很少睡觉。她这样解释,博士是自己想拿到的,将来带来的好处也是自己的,拼搏就是值得的。但,这并不是说,她是一个美女书呆子。她可是很会玩的,对此她还是强调专注。在北大时,她的放松方式就是疯玩麻将,在北大东门的“避风塘”她是常客。在美国,没人跟她打麻将,只好一个人玩散步。她说,玩也要专注,散步和打麻将一样好玩。她跟别人理解的就是不一样,很多人觉得聪明到天才是成功的关键,她认为专注和努力是成功的法宝,专注是关键,有了专注,自然也就努力了。博士毕业后,她成了一名博士后研究员,留在美国南加州大学担任“世界课堂”项目经理,28岁的她,在这里已经4年了。她叫戴韵,是一位美到极致的美女,更是一位深谙教育的博士。作为一个教育博士,当然对教育有着自己更深的理解,她始终认为一个人只要专注加上努力,就不可能学习不好。不过,她也承认自己从小专注力就强。有的孩子专注力不够,就容易分心,更坐不住。那些上课不能认真听讲的孩子,做作业拖拉的孩子,就是因为专注力不够导致的。不过,戴韵博士始终认为,专注力不够并不要紧,是可以通过训练提高的。而且,她的教育实践,已经证明了她的这个观点。戴韵博士说,家里孩子专注力不行,家长也不用着急,更不能斥责打骂,那些只能起到相反的作用,而应该买一套专注力训练方面的书籍,针对孩子的具体情况进行训练,只要持之以恒,效果绝对不会差。从戴韵的成长来看,她并不是神童,从小并不出类拔萃,父母更是对她进行放养,只是因为专注和努力,让她的人生开挂精彩。大家对于戴韵博士怎么看?

赤道雨

10位娱乐圈中的高学历一人,最后1位博士学历让人羡慕!

对于娱乐圈中的艺人们,大家都默认学历不是特别高,然而这10位艺人却是娱乐圈中的高学历艺人吴彦祖吴彦祖有着帅气的外型,是众多女粉丝的梦中男神,而男神不仅颜直高,还毕业于有100多年历史的美国俄勒冈大学,其攻读的更是该校的王牌专业建筑系叶璇近年来叶璇常常因直率的个性语出惊人,引起网友们的热议。叶璇的学历背景非常厉害,高中毕业时她以全校第一名(180门功课全A)的优异成绩同时被哈佛大学、康奈尔大学、纽约大学等多家名校录取,最终选择了培养过宋美龄、冰心、希拉里等名人的韦尔斯利大学苏有朋苏有朋曾是红遍亚洲的小虎队成员之一,其不仅有着帅气的外表,还有着超高的智商。小虎队期间全台湾会考前5,最终入读台湾大学机械工程系,相当于现在TFboy一边当艺人,高考时考进北京大学陈都灵陈都灵因出演《左耳》中李珥一角而正式出道,陈都灵以621分的的高考成绩顺利考入南京航空航天大学机电学院飞行器制造与工程专业,大一时在校花校草评选中被推到了“女神排行榜”冠军,而“奶茶妹妹”则排名第二李健“秋裤男神”李健,凭借高超的唱歌技巧和英俊的外表斩获了不少迷妹。李健也毕业于我国数一数二的高等学府清华大学电子工程系郭蔼明郭蔼明在1991年时以美国南加州大学机械工程学硕士身份参选香港小姐竞选,并获得冠军。是历届港姐冠军中的最高学历,真正的集智慧与美貌一体,郭蔼明与演员刘青云结婚后也被称为圈中的“模范夫妻”李治廷李治廷曾凭借电影《岁月神偷》获得香港电影金像奖最佳新人奖,一直被大家看好。在进入娱乐圈前,李治廷18岁时考上了著名的帝国理工大学,攻读物理专业。尚雯婕尚雯婕留给大家的印象是2006年的超级女声冠军,其也是复旦才女。她毕业于复旦大学法语专业,尚未毕业时曾出出席APEC会议、上海国际电影节等重要场合,担任同声翻译和首席翻译雪村说起雪村大家可能不熟悉,但他的歌曲《东北人都是活雷锋》却家喻户晓。在圈中较为低调的雪村毕业于北京大学德语系,其智商高在音乐的创作中也有不错的造诣喻恩泰喻恩泰因在《武林外传》中饰演吕秀才而让大家熟知,而其生活中也是一位饱读诗书的文化人,其在《武林外传》大火后选择继续深造,2009年7月获得中央戏剧学院表演、导演艺术研究博士学位博士学位

钓球

CSC联合培养-在读博士获美国加州大学洛杉矶分校邀请函

小贴士:赴美国等国家的联合培养博士研究生取得的邀请信上身份可以为joint PhD. student、visiting student、visiting researcher或类似表达方式;赴英国的联合培养博士研究生须明确为joint PhD. student、visiting student等学生类的表述。联合培养博士研究生的留学期限和资助期限为6-24个月,具体由国内外导师商定。F同学背景:申请类型:CSC公派联合培养项目教育背景:211高校 在读博士科研背景:非一作中文文章研究方向:工商管理接收方院校:加州大学洛杉矶分校(UCLA)申请要求:申请世界排名前200院校联合培养邀请函申请过程:F同学是211院校博士在读学生,计划申请国家留学基金委(CSC)资助的联合培养博士生项目,争取获得世界排名前200院校的邀请函。其自己申请的同时,导师也提供了一些资源,可是直至年末依然没有任何接收意向,距离申报开始还有不到3个月的时间,多耽搁一天就会给自己公派留学的计划带来多一份的变数。F同学决定不再等待,积极通过其他渠道获得满意的offer。在与知识人网老师沟通时,他列出了近40所目标院校,希望优先申请清单内学校的交流机会,非清单内则根据导师、项目等情况具体探讨拓展。申请开始一个月内,我们陆续获得了英国兰卡斯特大学、德国慕尼黑理工大学、美国宾州州立大学、南加州大学、加州大学洛杉矶分校(UCLA)等10余所院校导师的反馈,其中UCLA的导师是正教授,长期研究劳动市场、城市发展及公共政策促进就业等问题,除了在美国本土的调查研究,其还就中国、印度及几个欧洲国家的情况进行对比。而UCLA不仅在F同学所列清单中,该校在世界大学排名中更是名列前茅(TOP13),在2019年USNews美国综合大学排名中还超越了伯克利分校,成为了美国最佳公立大学。经过面试及研究计划的沟通,导师如约发来了两年联合培养的邀请函。这份“重量级”的offer助F同学顺利通过了CSC公派审批,如今他已经在加州开始了自己的学习生活,相信这两年的留学定能使F同学在学术方面更进一步。接收单位介绍:加州大学洛杉矶分校(University of California, Los Angeles,简称UCLA),位于美国洛杉矶市好莱坞附近,是世界著名公立研究型大学,被誉为美国商业金融、高科技产业、电影艺术等人才的摇篮 。UCLA在2017-18泰晤士高等教育世界大学排名中位列世界第15;在2018年USNews世界大学排名中位列世界第13。截止2017年,UCLA的教职员和毕业生中共有24位诺贝尔奖得主、4位图灵奖得主、3位菲尔兹奖得主、31位麦克阿瑟天才奖得主和7位普利策奖得主。UCLA是互联网的诞生地,并发现了世界首例艾滋病病例。Offer展示:CSC联合培养-在读博士获美国加州大学洛

酷刑室

海外名校毕业难找到工作,留学生正在遭遇“内卷”

“感觉自己一年学习下来,花了20多万的学费,只换来了一个野鸡大学文凭。”王婷已经在收拾行李准备回国。她是美国南加州大学公共外交专业的研究生,原本想12月毕业后在美国找一份工作,度过一年的课外实习期积攒更多海外工作经验后再考虑回国发展,但是新冠疫情的爆发让她被迫中止了原有计划,只能匆匆赶回国内,看是否还能在北上广深等一线城市找到合适的工作机会。今年的疫情给许多像王婷一样的留学生蒙上了一层阴影。不断上涨的新冠肺炎确诊人数、居高不下的失业率和动荡的海外局势都给就业增添了诸多不确定性,回国成了留学生最稳妥的选择。王婷不少同学早在今年三月就选择回国,一边上网课一边在国内投递简历。据Boss直聘发布的《2021届应届生秋招早鸟报告》显示,秋招早鸟季活跃的2020届和2021届留学生数量较2019年同期高出94.3%,接近翻倍。留学生求职网站UniCareer发布的《2020海归就业力调查报告》同样指出,今年回国求职海归数量暴增七成,达80万之多。疫情影响之下,大量高学历海归回国就业,进一步加剧了国内应届生求职竞争的整体激烈程度。UniCareer专家分析认为,海归最难求职年已经到来。信息不对等 校招难参与自九月开学以来,王婷的课业负担一直很重。正常情况下她应该是明年五月毕业,但是为了能够尽早结束学业,她把毕业学期的课都挪到了今年。尽管只有三门,但是每门课的负担很重,加上还需要忙着毕业设计,她根本没有时间关注国内秋招情况。“我每天忙着学习,毕业项目也是堪堪赶在最后才完成,等回过神来的时候,秋招都已经快结束了。”王婷告诉界面职场,“在国内很多大学生都会接收各种信息,有意识的关注秋招,但是我在海外如果没有刻意上招聘网站看,就会陷入很闭塞的环境。”“金九银十”是国内企业招聘的重要时期,像腾讯、阿里巴巴等互联网大厂都会在这个时候开启招聘,进行笔试和面试,各大高校也会开启招聘会,邀请企业来学校宣讲,打通信息渠道。但是,对于留学生而言,想要在国内找到一份工作,依托的仅是那一根网线。Boss直聘、智联招聘、猎聘等网站都是他们时常关注和浏览的网站,王婷还关注了许多发布招聘信息的微信公众号,一有合适的岗位她就会投递简历。此外,她还加入了不少秋招群,比如华为非研发群招聘、字节跳动2020海外留学生招聘等。“南加大的就业服务中心和一些互联网大公司都有合作,往年都会来学校宣讲,但是今年航班切断,校园封闭,这些都被迫终止或者改成线上了。”王婷说。另外,王婷也切身体会到招聘岗位的狭窄。“这些来学校招聘的岗位很多都是金融类岗位,我学的是公共外交专业,对口的很少。”王婷倾向于进体制内或者一些非营利性机构,据她透露,体制内考试通常需要线下笔试,她没办法赶回国也没时间刷行测题,非营利性组织在国内市场较小,招聘的岗位少得可怜。“我今年有收到一家上海非营利性机构的录取通知,主要是负责中美之间的校友联系,但是我爸妈考虑到现在美国留学市场行情不好,工资待遇也一般,最后还是放弃了这个offer。”王婷说道。另外,王婷是今年12月毕业,她的毕业时间在国内界定是2020届还是2021届上比较模糊,有些企业会认为她是往届学生,只能参加社招。 “这样一来,我能够参加秋招的企业就更少了。” 她苦涩地说。名校高大上 国内无人闻和王婷一样,刘敏今年从英国华威大学毕业后回国找工作。但是她发现,国内应届毕业生求职市场竞争激烈的程度超乎她的想象,最令她惊讶的是,她花了高昂学费换来的海外名校背景,在现在的求职市场上不那么管用了。据教育部数据显示,2019年度我国出国留学人员总数为70.35万人,较上一年度增加4.14万人。同年留学回国人员总数为58.03万人,同比增长11.73%。从 1978年到2019年,我国各类出国留学人员累计达656.06万人,其中423.17万人在完成学业后选择回国发展,占回国总人数的86.28%。《中国留学发展报告》指出,随着出国留学人数的不断增长,海归学历的含金量不断下降,就业压力进一步凸显。调研发现,虽然近半数海归认为自身的竞争力高于国内同类学生,但海归群体的求职劣势仍然明显。刘敏在求职时发现,英国排名靠前的学校和清华北大这些顶级名校相比,完全没有可比性,甚至连人大、武大和南大相比都没有竞争力。她向界面职场透露,自己一个朋友在腾讯视频工作,那边主管在招人的时候看到伦敦国王学院毕业的学生,都要质疑这是什么大学。事实上,伦敦国王学院在2021年QS世界大学排名中位居31,和国内高校相比,仅次于清华北大。“感觉自己一年学习下来,花了20多万的学费,只换来了一个野鸡大学文凭。”刘敏自嘲,“现在国内也把我们这些海外留学生认为是不学无术的人,拿钱去混日子,谁知道我们背后熬夜赶e的压力和辛酸呢?”学历背景比不过国内高校,在实习经历上海归也不如一些国内应届生丰富。由于学制时长安排、往返机票的价格等诸多客观因素,有些留学生寒暑假没有回国找实习,在求职的时候工作经验只能依靠在国内读本科时候的实习经历。周妍妍毕业于美国某知名大学法学专业,她的学制是一年,国内暑假的时候她就已经飞到大洋彼岸开始上课。一年的时间里她要修的学分颇多,课余时间都被学业压满,“很难再抽出精力去找一份实习”。此外,她刚开始研究生课程,国内的秋招就已经开始了。她告诉界面职场,那个时候她还在努力适应国外的教学环境,等反应过来的时候,秋招都结束了。“我也不可能寒假的时候回国找实习。”周妍妍说,“从12月放假到下学期开学,中间只有不到一个月,但现在国内实习都是三个月起,一个月的实习难找,含金量也不高。”需要注意的是,国内学校毕业的应届生还有学长学姐的人脉优势可以利用。作为过来人,同专业或者同学校的学长学姐可以提前透露什么时候开始准备秋招、笔试覆盖内容、面试经验等。学长学姐通常还拥有内推的机会。刘敏的大学室友在腾讯实习,而这个机会是她在学生会的一位学姐推荐的。据刘敏介绍,当时这个学姐临时需要结束实习,便把机会推荐给了她室友。“我室友也抓住了这个机会,问了学姐很多可以参考的工作内容,在面试的时候比别的实习生更有把握。”重理科轻文科 重经验轻应届《2020海归就业力调查报告》指出,对于海归来说,英语表达能力、宏观视野和适应能力,是其三大竞争力。然而随着中国经济发展和教育质量的不断提升,国内大学生群体竞争力快速增强,与海归的优势差距正在逐渐缩小;另一方面,相比海归,国内毕业生对于工作预期相对较低,更容易融入就业环境,对企业的工作要求接受度也更高。而对于企业招聘来说,“高素质”、“高层次”的海归往往是求之不得,综合能力较弱的海归受欢迎程度较低,甚至有超过60%的企业并不认为海归在专业领域上比内地学生更优秀。那么什么样的海归更受企业的青睐?12月28日,人力资源服务机构上海外服发布《企业海外人才需求及管理实践调研报告》,通过对126家企业调研发现,研发类和信息技术类岗位占据海外人才需求的四成以上,经验丰富的海归比应届生更有优势。调研显示,多数企业所属行业具有较强的专业性,对候选人的学历也有较高要求,近7成企业要求候选人具备硕士以上学历。其中,要求博士学历的占19%,要求硕士学历的占45%。此外,企业还非常看重海外人才的海外工作经验,近8成企业表示需要引进拥有海外工作经验的人才,4成企业要求海外人才具备3年以上海外工作经验。“码农”一直以来是硅谷最受欢迎的人才。唐琪在平安夜这天收到了来自微软的录用通知书。她告诉界面职场,尽管今年找工作相对而言比较艰难,但是她所在的计算机专业所受影响没有那么大,“刚好赶上微软扩招,虽然只是国内岗,但是也非常幸运了。”王玉所在专业是老龄学,主要针对的是对老年群体和赡养和养老院的管理与建设。她刚入学时就下定决心要在美国积攒工作经验后再回去。据她介绍,国内的养老服务行业现在还处在起步阶段,许多设施和政策都还不完善,美国的养老院运转更加成熟,可以学到更多知识。毕业后,王玉在老师的推荐下进入了一家新成立的养老服务公司担任助理工作,虽然薪水不高,但是十分充实,生活也绰绰有余。“有了海外工作经验肯定在国内能更好地找到工作,现在国内养老行业的人才还是比较缺少的。”值得注意的是,上海外服调研发现,企业在引进海外人才时,遇到的最主要的困难是海归薪酬福利要求过高。UniCareer数据显示,12.8%的海归认为自己应该拿到30万以上年薪,而今年真正拿到这一数字的仅占5%;有接近四成海归的实际年薪不足10万,这一比例相较去年增加了足足一成。在美国有着不错薪水和职业发展前景的王玉坦言,如果回国她肯定不愿意像应届毕业生那样从初级员工开始打拼。她直言,自己要想拿好的offer不成问题,但要回来拿着8000块的月薪从零开始,她并不乐意,“就是我这辈子都赚不回学费,很现实的”。(应受访者需求,王婷、刘敏、周妍妍、王玉均为化名)

必不合矣

盘点娱圈的学霸,王力宏获双博士?

有份演出《爱.回家之开心速递》的女星刘思希,一边拍剧之馀,还一边修读出名难读的科大EMBA课程,是无綫数一数二的学霸!其实,圈中仍有不少读书之人,当中算犀利的有以下艺人!1、王力宏:台湾歌手王力宏才华洋溢,音乐造谐极高,而他的学历同样彪炳,先后拥有麻萨诸塞州威廉士学院学士、波士顿伯克利音乐学院硕士。直到2016年6月,他获麻萨诸塞州威廉士学院颁发荣誉博士。同年11月,他更获母校波士顿伯克利音乐学院颁发荣誉博士,荣升双博士。其实王力宏一家的学历亦相当优越,父亲毕业于台大医学系,母亲是政治大学毕业,哥哥是芝加哥大学博士,弟弟则是麻省理工(MIT)硕士。另外,王力宏妻子李靓蕾亦拥有哥伦比亚大学硕士学位。2、吴彦祖:众所周知型男吴彦祖颜值高,其实他的学历亦同样标青。他毕业于美国奥勒冈大学建筑系,早在读书时期已经取得加州建筑大赛亚军。他早前参加内地真人骚时,与设计团队在中国河北木兰围场以80万元人民币(约97万港元)作预算,为当地的村民同小朋友设计了一个可以居住嘅图书馆“木兰坊”,事后更入围有“建筑界奥斯卡”之称的英国皇家建筑师学会奖(RIBA International Prize 2018)。3、莫文蔚:莫文蔚出身于书香世家,能操流利英语、粤语、国语、法语和意大利文五种语言。中四时,她获颁第一届“香港杰出学生奖”,中五更以三A、五B优异成绩毕业于香港拔萃女书院,亦两年获得奖学金到United World College of the Adriatic(意大利亚得里亚海联合世界书院)进修,随后到英国伦敦大学皇家哈洛威学院主修意大利语和意大利文学。4、郭蔼明:郭蔼明为1991年香港小姐冠军,其后退出幕前与影帝刘青云拉埋天窗。在一众香港小姐中,她的学历亦相当出众,曾在美国南加州大学取得机械工程学硕士学位。5、陈法拉:陈法拉于14岁便移民美国,高中以全校前十名成绩毕业,并获奖学金入读Emory University主修Marketing和国际商务,直到2005年获得学士学位,同年以纽约代表身份参选华姐,并夺得亚军杀入娱乐圈。2014年,她放下幕前工作,到纽约茱莉亚学院(Juilliard School)修读为期四年的戏剧硕士课程。6、张钧宁:女星张钧宁在德国出生,爸爸是台湾大学教授,妈妈是儿童文学作家。四岁时,张钧宁返到台湾读书,毕业于景美女中、国立台北大学法律学系财经法学组。入行后,她坚持继续学业,直到2010年获颁台湾国立中央大学产经所法律组硕士。7、朱千雪:港姐朱千雪8岁时跟家人移民加拿大温哥华,自小习琴并获八级水平,曾就读西门菲莎大学主修商业和传理系。当选港姐后,她开始发展银色事业,其后在香港中文大学报读传播学院硕士课程,毕业后再于香港城市大学攻读法律博士课程。8、麦明诗:2015年香港小姐冠军麦明诗曾在香港就读拔萃女书院,在中学会考中夺下10A佳绩,是“10A状元”,她其后远赴英国升学,并毕业于剑桥大学法律系。

气母

ACL2019最佳论文:TeacherForcing待解决,通用预训练模型非万能

机器之心原创作者:一鸣ACL 2019 大会近日落幕。来自中国科学院计算所、腾讯微信 AI 实验室、华为诺亚方舟、伍斯特理工学院等研究人员完成的机器翻译论文《Bridging the Gap between Training and Inference for Neural Machine Translation》获得了最佳长论文奖。在本文中,机器之心对此论文通讯作者、中国科学院计算所的冯洋老师进行了专访。神经机器翻译是自然语言处理中的重要任务。目前的通用做法是,训练时输入源句子(source sentence)和目标句子(target sentence)组成的句子对,训练神经网络模型后,在测试集上生成翻译文本。尽管近年来神经机器翻译相关的研究已经取得了长足的进步,神经机器翻译模型依然无法达到人类翻译的水平,更无法在专业领域取代人工翻译。其中有两个重要的原因阻碍了神经机器翻译的发展。首先,神经机器翻译任务中模型训练的输入和模型推断的输入有很大的不同。在训练过程中,解码器生成字符的时候需要受到 Ground Truth,即参考句(Reference Sentence)的约束。而在推断过程中,生成的目标句中的每个字符完全根据模型给出的前一个字符进行推断,没有 Ground Truth 作为约束语境。神经机器翻译中的第二个问题来自 Teacher Forcing 方法。这一方法要求模型的生成结果必须和参考句一一对应。尽管这一方法可以强制约束模型的翻译结果,加快收敛,但是缺点显而易见。首先,不可能保证某种语言中的每一个词在另一种语言中都有对应的词语。其次,强制词语对应消除了语义相似的其他翻译结果,扼杀了翻译的多样性。而今年的 ACL 2019 最佳长论文——Bridging the Gap between Training and Inference for Neural Machine Translation 则对这两个问题提出了解决方案,并在多个机器翻译数据集上取得了一定的性能提升。在这一奖项出炉后,机器之心采访了论文通讯作者,中国科学院计算所的冯洋老师,请冯老师谈谈这篇论文和自然语言处理研究相关的事。冯洋老师是中国科学院计算技术研究所副研究员,博士生导师,自然语言处理课题组负责人。2011 年在中科院计算所获得了博士学位之后,先后在英国谢菲尔德大学、美国南加州大学 Information Sciences Institute (USC/ISI) 开展研究工作。回国后先后在百度和清华大学工作,于 2017 年 6 月加入中科院计算所,入选计算所「新百星」人才引进计划。研究方向主要是自然语言处理、机器翻译和机器学习,先后在自然语言处理领域的顶级会议 ACL、EMNLP、COLING 等上发表了一系列论文,并担任 COLING 2018 的领域主席。发明了多项中国和美国专利,承担了国家重点研发计划、国家自然科学面上基金项目等项目,并作为主要参与人参与了美国国防部 DARPA 重大项目、欧盟重大项目和英国 EPSRC 基金项目。以下为采访内容,机器之心进行了整理。机器翻译目前最急需解决的问题是 Teacher Forcing机器之心:神经机器翻译(NMT)在自然语言处理领域已经算是一个比较成熟的方向,那么当您选择这个问题时,目标和基本想法都是什么样的?冯洋:我选择研究神经机器翻译的原因是,它是一个相对定义比较规范的问题,问题本身的场景是固定的。因此,对于这个问题来说,做得好与不好,更多地取决于研究者对问题理解的深度,或者说算法的好坏。而对于团队来说,研究这一问题也是很有必要的,因为研究这一问题需要团队很「solid」(扎实)的积累。机器之心:也就是说,这一问题对于团队的基础技术和能力是一种很好的锻炼,一种很好的培养机会,可以这样理解吗?冯洋:对的。机器之心:在机器翻译领域中,目前有哪些难点急需解决?又有哪些有潜力的研究方向?冯洋:我认为目前最大的问题是 Teacher Forcing,它要求模型生成的翻译和 Ground Truth 完全对应。首先,这样可能扼杀了翻译的多样性。另外,模型不可能完全保证和 Ground Truth 的译文完全一致。有时候,模型在某一句上,通过调参可以达到和 Ground Truth 完全一致的结果,但是在另一句话可能就无法达到了。对于没有达到完全一致的句子,模型会被给予惩罚,而并没有去评价翻译的结果好不好,这是一个问题。所以,对于有潜力的点,我认为训练的框架很值得研究。另外,基于语义的翻译也很值得探究。但是,目前研究成果很少,不是说不值得研究,而是难度非常大。下一步如果能对译文方面,对翻译结果有一个正确的评估,这是很重要的。机器之心:能否请您谈谈,目前自然语言处理领域比较值得关注和研究的热点问题?冯洋:目前人机对话应该是比较热门的领域。这是因为它的应用场景很广阔。研究界尝试了很多方法,也取得了一定的效果,但是目前缺乏一种通用的、固定的场景,也缺乏一个得到验证的、广泛在工业界可以应用的模型。所以说我觉得人机对话接下来还有很长的路要走,应该是一个比较有潜力的研究方向。同时人机对话的需求也非常旺盛,现在有很多产品都在转向智能化,智能化就需要人机对话应用,比如智能音箱和导航等,在未来人机对话的应用会非常广泛。至于机器翻译方向,它是由应用决定最终研究的方向。虽然机器翻译技术已经比较成熟了,但是仍有需求没有得到解决。现在各大公司依然在努力研究同声传译方面的技术,但是实际上太难做了。在实际应用中,演讲者所处的环境非常嘈杂,在演讲者即兴讲话的情况下,它的问题就会很明显。还有很多研究方面的工作需要去做。关于最佳论文为了解决机器翻译存在的问题,在论文 Bridging the Gap between Training and Inference for Neural Machine Translation 中,冯洋老师和团队成员提出了使用 Oracle 词语,用于替代 Ground Truth 中的词语,作为训练阶段约束模型的数据。选择 Oracle Word 的方法有两种,一种是选择 word-level oracle,另一种则是 sentence-level oracle。词语级别的 Oracle Word 选择方法。图源:论文。word-level oracle 的选择方法如图所示,在时间步为 j 时,获取前一个时间步模型预测出的每个词语的预测分数。为了提高模型的鲁棒性,论文在预测分数基础上加上了 Gumbel noise,最终取分数最高的词语作为此时的 Oracle Word。sentence-level oracle 的选择方法则是在训练时,在解码句子的阶段,使用集束搜索的方法,选择集束宽为 k 的句子(即 top k 个备选句子),然后计算每个句子的 BLEU 分数,最终选择分数最高的句子。当然,这会带来一个问题,即每个时间步都需要获得该时间步长度上的备选句子,因此集束搜索获得的句子长度必须和时间步保持一致。如果集束搜索生成的实际句子超出或短于这一长度该怎么办?这里研究人员使用了「Force Decoding」的方法进行干预。而最终选择的 Oracle Word 也会和 Ground Truth 中的词语混合,然后使用衰减式采样(Decay Sampling)的方法从中挑选出作为约束模型训练的词。针对论文中的一些问题,机器之心也请教了冯洋老师。机器之心:我们知道,这篇论文的基本思想是:不仅使用 Ground Truth 进行约束,在训练过程中,也利用训练模型预测出的上一个词语作为其中的备选词语,这样的灵感是从哪里得到的呢?冯洋:我们很早就发现了这样一个问题——训练和测试的时候模型的输入是不一样的。我们希望模型在训练过程中也能够用到预测出的词语。看到最近一些周边的工作,我们慢慢想到,将 Ground Truth 和模型自己预测出的词一起以 Sampling 的方式输入进模型。机器之心:刚才您提到有一些周边的工作,能否请您谈谈有哪些相关的论文?冯洋:这些周边的论文在 Related Work 中有写到,这些工作的基本思想都是一样的,都是希望将预测出的词语作为模型输入。比如说,根据 DAD(Data as Demonstrator)的方法。这一方法将预测出的词语和后一个词语组成的词语对(word-pair)以 bigram 的方式输入作为训练实例加入。另一种是 Scheled Sampling 的方式,也是用 Sampling 的方式,把预测出的词语作为输入加入到模型训练中。机器之心:论文使用了两种方法实现将预测词语作为训练的输入,一种是在 Word-level 选择 Oracle Word,另一种是在 Sentence-level 选择 Oracle Sentence,能否请您详细介绍下 Sentence-level 的方法?冯洋:Sentence-level 的方法可以简单理解为进行了一次解码。我们从句子中取出前 k 个候选译文。这里的 k 我们选择了 3,即 Top3 的句子。然后在这些句子中再计算他们的 BLEU 分数,并选择分数最高的句子,作为 Oracle Sentence。机器之心:我们知道,论文中,在选择 Oracle Sentence 的过程中会进行「Force Decoding」。需要强制保证生成的句子和原有的句子保持一致的长度。您认为这样的方法会带来什么样的问题?冯洋:这是强制模型生成和 Ground Truth 长度一样的句子。这样模型可能会生成一些原本并不是模型想生成的结果,这可能会带来一些问题。但是对于 Teacher Forcing 来说这是必须的,因为 Teacher Forcing 本身要求每一个词都要对应。所以说,虽然看起来我们干预了句子的生成,但是在 Teacher Forcing 的场景下,这种干预不一定是坏的。机器之心:为什么说这样的干预不一定是坏的?冯洋:我们需要留意的是,Force Decoding 的方法是在训练阶段进行的,如果训练中这样做了,模型就会逐渐地适应这个过程。另一方面,Force Decoding 可以平衡一些极端的生成结果。比如说,当句子长度为 10,但模型只生成了仅有 2 个词的句子,或者是模型生成了有 20 个词的句子,所以说 Force Decoding 也可以平衡这样的极端情况。在 Teacher Forcing 的场景下,这是一种折中的方法,不能完全说这样的方法是不好的。机器之心:在研究的过程中您遇到了哪些困难的地方?冯洋:研究过程也不是一直顺利的。在有了算法的时候,模型并没有达到理想的效果。我们不清楚是细节方面的一些问题,还是模型本身是不 work 的。对此,我们进行了一些尝试,最后发现是模型其实是 work 的。机器之心:在哪些方面进行了尝试?冯洋:首先是 Decay 方面的问题,怎样让模型 Decay。第二个是关于选择 Oracle Word 和 Oracle Sentence,这些方面我们进行了很多尝试。机器之心:实验结果不理想的情况时,怎样进行改进呢?冯洋:有几个方面可以进行改进。首先是神经网络上,由于神经网络它自身的特点,有些参数需要进行研究和调整。其次是关于模型本身,我们需要检查模型的输入的结果是不是想要的。一些中间结果也需要检查一下,我们需要从逻辑层面检查模型是否真正的按照预期去工作。机器之心:能否请您介绍下参与论文的研究团队?冯洋:论文的一作张文是刘群老师的博士生,是该工作的主要完成者,近年来在自然语言处理顶会上发表了多篇文章。平时我会协助刘群老师指导张文的工作。还有一位作者是腾讯微信团队的孟凡东,是论文的三作,是我们实验室的优秀毕业生,会提出一些建议。还有一位作者是实验室的实习生游狄。机器之心:您参加了很多顶会。我们近年来看到有很多华人学者参与顶会,也获得了很多奖项,您怎样看待这个现象呢?冯洋:这可以叫做「中国崛起」现象吧,其实很正常。我觉得现在神经网络研究对我们华人学者是一个很好的机会。大家都知道,华人学者能力很强。在过去,很多研究需要积累,很多单位因为过去的积累比较多,所以在此基础上做出的成果也比较多。而现在神经网络时代,这个领域刚兴起,大家的基础积累是一样的。另外,神经网络的很多研究是开源的,这样就打破了很多壁垒。我们华人学者学习能力很强,在这样的环境下,我们崛起是很正常的。预训练模型虽好,但专业场景需要专业解决方案机器之心:我们知道最近有很多预训练语言模型,如 BERT 和 XLNet,在多个自然语言处理任务中取得了 Bench Mark。这些预训练语言模型也可以应用在神经机器翻译任务上,也取得了一定的效果。您觉得现在已经有很多这样的模型了,再去研究专门针对特定任务的架构,这样的意义和优势在哪里?冯洋:像预训练语言模型这一通用架构,是可以帮助我们在特定的任务上提升效果,但是这些语言模型并没有针对特定的问题提出解决方案。所以说针对特定的任务提出解决方案是很有必要的,因为每个问题的场景都不一样。针对专业的场景应该有专业的模型,不可能有通用的模型可以解决所有的问题。机器之心:前几天 Facebook 刚开源了一个新的预训练语言模型——roBERTa,在 BERT 的基础上增加了很多算力和训练的数据量。您觉得像这样疯狂地往模型上堆训练数据量和算力的方法,一定能取得很好的效果吗?冯洋:就同样的模型来说,堆算力、扩大训练数据集肯定会有更好的效果。但是,这样的方法更适合工业界。因为工业界有实际的应用,也有相应的能力,可以这样去做。在学术界来说,我们更要关注到算法方面的突破。有了好的算法,再加上好的算力,才能有更好的加成。学术研究需要夯实理论基础,解决核心问题机器之心:在您选题、立题过程中,有没有一些经验可以给读者朋友们分享一下?冯洋:我建议我的学生去做以下几点。首先是要多读论文,这是肯定的。在读论文的过程中,不能只看对方做了什么,而是要善于去提炼论文要解决什么问题,然后是论文使用了什么样的方法。在选题立题的过程中,首先需要明确要解决的问题是什么。第二个是你的解决方案是什么。在这个过程中,可以选择解决认为很重要的问题,或者是很感兴趣的问题。也可以去发现别的研究者没有考虑到的,有很大提升空间的问题,可以从这两个角度来选择。机器之心:最后一个问题,您认为作为人工智能领域的研究者,应该秉持怎样的研究理念和治学的理念?冯洋:我觉得,研究者需要能做一些解决一个或多个任务的关键问题的研究。从根本上解决问题,触及问题的核心,而不是为了把神经网络做好而去做研究。此外,在学生培养上,我希望大家不要急着发论文,要做好的研究。平时要注意多做一些基础理论的积累,当基础理论打扎实了,研究的路会越走越宽。如果仅靠拍脑袋或者一时的灵感去做研究,刚开始能摘到一些低枝的果实,可能比较容易出成果。慢慢的,当大家都研究得越来越难的时候,出成果就会比较困难了。

ACL2019最佳论文:TeacherForcing待解决,通用预训练模型非万能

机器之心原创作者:一鸣ACL 2019 大会近日落幕。来自中国科学院计算所、腾讯微信 AI 实验室、华为诺亚方舟、伍斯特理工学院等研究人员完成的机器翻译论文《Bridging the Gap between Training and Inference for Neural Machine Translation》获得了最佳长论文奖。在本文中,机器之心对此论文通讯作者、中国科学院计算所的冯洋老师进行了专访。神经机器翻译是自然语言处理中的重要任务。目前的通用做法是,训练时输入源句子(source sentence)和目标句子(target sentence)组成的句子对,训练神经网络模型后,在测试集上生成翻译文本。尽管近年来神经机器翻译相关的研究已经取得了长足的进步,神经机器翻译模型依然无法达到人类翻译的水平,更无法在专业领域取代人工翻译。其中有两个重要的原因阻碍了神经机器翻译的发展。首先,神经机器翻译任务中模型训练的输入和模型推断的输入有很大的不同。在训练过程中,解码器生成字符的时候需要受到 Ground Truth,即参考句(Reference Sentence)的约束。而在推断过程中,生成的目标句中的每个字符完全根据模型给出的前一个字符进行推断,没有 Ground Truth 作为约束语境。神经机器翻译中的第二个问题来自 Teacher Forcing 方法。这一方法要求模型的生成结果必须和参考句一一对应。尽管这一方法可以强制约束模型的翻译结果,加快收敛,但是缺点显而易见。首先,不可能保证某种语言中的每一个词在另一种语言中都有对应的词语。其次,强制词语对应消除了语义相似的其他翻译结果,扼杀了翻译的多样性。而今年的 ACL 2019 最佳长论文——Bridging the Gap between Training and Inference for Neural Machine Translation 则对这两个问题提出了解决方案,并在多个机器翻译数据集上取得了一定的性能提升。在这一奖项出炉后,机器之心采访了论文通讯作者,中国科学院计算所的冯洋老师,请冯老师谈谈这篇论文和自然语言处理研究相关的事。冯洋老师是中国科学院计算技术研究所副研究员,博士生导师,自然语言处理课题组负责人。2011 年在中科院计算所获得了博士学位之后,先后在英国谢菲尔德大学、美国南加州大学 Information Sciences Institute (USC/ISI) 开展研究工作。回国后先后在百度和清华大学工作,于 2017 年 6 月加入中科院计算所,入选计算所「新百星」人才引进计划。研究方向主要是自然语言处理、机器翻译和机器学习,先后在自然语言处理领域的顶级会议 ACL、EMNLP、COLING 等上发表了一系列论文,并担任 COLING 2018 的领域主席。发明了多项中国和美国专利,承担了国家重点研发计划、国家自然科学面上基金项目等项目,并作为主要参与人参与了美国国防部 DARPA 重大项目、欧盟重大项目和英国 EPSRC 基金项目。以下为采访内容,机器之心进行了整理。机器翻译目前最急需解决的问题是 Teacher Forcing机器之心:神经机器翻译(NMT)在自然语言处理领域已经算是一个比较成熟的方向,那么当您选择这个问题时,目标和基本想法都是什么样的?冯洋:我选择研究神经机器翻译的原因是,它是一个相对定义比较规范的问题,问题本身的场景是固定的。因此,对于这个问题来说,做得好与不好,更多地取决于研究者对问题理解的深度,或者说算法的好坏。而对于团队来说,研究这一问题也是很有必要的,因为研究这一问题需要团队很「solid」(扎实)的积累。机器之心:也就是说,这一问题对于团队的基础技术和能力是一种很好的锻炼,一种很好的培养机会,可以这样理解吗?冯洋:对的。机器之心:在机器翻译领域中,目前有哪些难点急需解决?又有哪些有潜力的研究方向?冯洋:我认为目前最大的问题是 Teacher Forcing,它要求模型生成的翻译和 Ground Truth 完全对应。首先,这样可能扼杀了翻译的多样性。另外,模型不可能完全保证和 Ground Truth 的译文完全一致。有时候,模型在某一句上,通过调参可以达到和 Ground Truth 完全一致的结果,但是在另一句话可能就无法达到了。对于没有达到完全一致的句子,模型会被给予惩罚,而并没有去评价翻译的结果好不好,这是一个问题。所以,对于有潜力的点,我认为训练的框架很值得研究。另外,基于语义的翻译也很值得探究。但是,目前研究成果很少,不是说不值得研究,而是难度非常大。下一步如果能对译文方面,对翻译结果有一个正确的评估,这是很重要的。机器之心:能否请您谈谈,目前自然语言处理领域比较值得关注和研究的热点问题?冯洋:目前人机对话应该是比较热门的领域。这是因为它的应用场景很广阔。研究界尝试了很多方法,也取得了一定的效果,但是目前缺乏一种通用的、固定的场景,也缺乏一个得到验证的、广泛在工业界可以应用的模型。所以说我觉得人机对话接下来还有很长的路要走,应该是一个比较有潜力的研究方向。同时人机对话的需求也非常旺盛,现在有很多产品都在转向智能化,智能化就需要人机对话应用,比如智能音箱和导航等,在未来人机对话的应用会非常广泛。至于机器翻译方向,它是由应用决定最终研究的方向。虽然机器翻译技术已经比较成熟了,但是仍有需求没有得到解决。现在各大公司依然在努力研究同声传译方面的技术,但是实际上太难做了。在实际应用中,演讲者所处的环境非常嘈杂,在演讲者即兴讲话的情况下,它的问题就会很明显。还有很多研究方面的工作需要去做。关于最佳论文为了解决机器翻译存在的问题,在论文 Bridging the Gap between Training and Inference for Neural Machine Translation 中,冯洋老师和团队成员提出了使用 Oracle 词语,用于替代 Ground Truth 中的词语,作为训练阶段约束模型的数据。选择 Oracle Word 的方法有两种,一种是选择 word-level oracle,另一种则是 sentence-level oracle。词语级别的 Oracle Word 选择方法。图源:论文。word-level oracle 的选择方法如图所示,在时间步为 j 时,获取前一个时间步模型预测出的每个词语的预测分数。为了提高模型的鲁棒性,论文在预测分数基础上加上了 Gumbel noise,最终取分数最高的词语作为此时的 Oracle Word。sentence-level oracle 的选择方法则是在训练时,在解码句子的阶段,使用集束搜索的方法,选择集束宽为 k 的句子(即 top k 个备选句子),然后计算每个句子的 BLEU 分数,最终选择分数最高的句子。当然,这会带来一个问题,即每个时间步都需要获得该时间步长度上的备选句子,因此集束搜索获得的句子长度必须和时间步保持一致。如果集束搜索生成的实际句子超出或短于这一长度该怎么办?这里研究人员使用了「Force Decoding」的方法进行干预。而最终选择的 Oracle Word 也会和 Ground Truth 中的词语混合,然后使用衰减式采样(Decay Sampling)的方法从中挑选出作为约束模型训练的词。针对论文中的一些问题,机器之心也请教了冯洋老师。机器之心:我们知道,这篇论文的基本思想是:不仅使用 Ground Truth 进行约束,在训练过程中,也利用训练模型预测出的上一个词语作为其中的备选词语,这样的灵感是从哪里得到的呢?冯洋:我们很早就发现了这样一个问题——训练和测试的时候模型的输入是不一样的。我们希望模型在训练过程中也能够用到预测出的词语。看到最近一些周边的工作,我们慢慢想到,将 Ground Truth 和模型自己预测出的词一起以 Sampling 的方式输入进模型。机器之心:刚才您提到有一些周边的工作,能否请您谈谈有哪些相关的论文?冯洋:这些周边的论文在 Related Work 中有写到,这些工作的基本思想都是一样的,都是希望将预测出的词语作为模型输入。比如说,根据 DAD(Data as Demonstrator)的方法。这一方法将预测出的词语和后一个词语组成的词语对(word-pair)以 bigram 的方式输入作为训练实例加入。另一种是 Scheled Sampling 的方式,也是用 Sampling 的方式,把预测出的词语作为输入加入到模型训练中。机器之心:论文使用了两种方法实现将预测词语作为训练的输入,一种是在 Word-level 选择 Oracle Word,另一种是在 Sentence-level 选择 Oracle Sentence,能否请您详细介绍下 Sentence-level 的方法?冯洋:Sentence-level 的方法可以简单理解为进行了一次解码。我们从句子中取出前 k 个候选译文。这里的 k 我们选择了 3,即 Top3 的句子。然后在这些句子中再计算他们的 BLEU 分数,并选择分数最高的句子,作为 Oracle Sentence。机器之心:我们知道,论文中,在选择 Oracle Sentence 的过程中会进行「Force Decoding」。需要强制保证生成的句子和原有的句子保持一致的长度。您认为这样的方法会带来什么样的问题?冯洋:这是强制模型生成和 Ground Truth 长度一样的句子。这样模型可能会生成一些原本并不是模型想生成的结果,这可能会带来一些问题。但是对于 Teacher Forcing 来说这是必须的,因为 Teacher Forcing 本身要求每一个词都要对应。所以说,虽然看起来我们干预了句子的生成,但是在 Teacher Forcing 的场景下,这种干预不一定是坏的。机器之心:为什么说这样的干预不一定是坏的?冯洋:我们需要留意的是,Force Decoding 的方法是在训练阶段进行的,如果训练中这样做了,模型就会逐渐地适应这个过程。另一方面,Force Decoding 可以平衡一些极端的生成结果。比如说,当句子长度为 10,但模型只生成了仅有 2 个词的句子,或者是模型生成了有 20 个词的句子,所以说 Force Decoding 也可以平衡这样的极端情况。在 Teacher Forcing 的场景下,这是一种折中的方法,不能完全说这样的方法是不好的。机器之心:在研究的过程中您遇到了哪些困难的地方?冯洋:研究过程也不是一直顺利的。在有了算法的时候,模型并没有达到理想的效果。我们不清楚是细节方面的一些问题,还是模型本身是不 work 的。对此,我们进行了一些尝试,最后发现是模型其实是 work 的。机器之心:在哪些方面进行了尝试?冯洋:首先是 Decay 方面的问题,怎样让模型 Decay。第二个是关于选择 Oracle Word 和 Oracle Sentence,这些方面我们进行了很多尝试。机器之心:实验结果不理想的情况时,怎样进行改进呢?冯洋:有几个方面可以进行改进。首先是神经网络上,由于神经网络它自身的特点,有些参数需要进行研究和调整。其次是关于模型本身,我们需要检查模型的输入的结果是不是想要的。一些中间结果也需要检查一下,我们需要从逻辑层面检查模型是否真正的按照预期去工作。机器之心:能否请您介绍下参与论文的研究团队?冯洋:论文的一作张文是刘群老师的博士生,是该工作的主要完成者,近年来在自然语言处理顶会上发表了多篇文章。平时我会协助刘群老师指导张文的工作。还有一位作者是腾讯微信团队的孟凡东,是论文的三作,是我们实验室的优秀毕业生,会提出一些建议。还有一位作者是实验室的实习生游狄。机器之心:您参加了很多顶会。我们近年来看到有很多华人学者参与顶会,也获得了很多奖项,您怎样看待这个现象呢?冯洋:这可以叫做「中国崛起」现象吧,其实很正常。我觉得现在神经网络研究对我们华人学者是一个很好的机会。大家都知道,华人学者能力很强。在过去,很多研究需要积累,很多单位因为过去的积累比较多,所以在此基础上做出的成果也比较多。而现在神经网络时代,这个领域刚兴起,大家的基础积累是一样的。另外,神经网络的很多研究是开源的,这样就打破了很多壁垒。我们华人学者学习能力很强,在这样的环境下,我们崛起是很正常的。预训练模型虽好,但专业场景需要专业解决方案机器之心:我们知道最近有很多预训练语言模型,如 BERT 和 XLNet,在多个自然语言处理任务中取得了 Bench Mark。这些预训练语言模型也可以应用在神经机器翻译任务上,也取得了一定的效果。您觉得现在已经有很多这样的模型了,再去研究专门针对特定任务的架构,这样的意义和优势在哪里?冯洋:像预训练语言模型这一通用架构,是可以帮助我们在特定的任务上提升效果,但是这些语言模型并没有针对特定的问题提出解决方案。所以说针对特定的任务提出解决方案是很有必要的,因为每个问题的场景都不一样。针对专业的场景应该有专业的模型,不可能有通用的模型可以解决所有的问题。机器之心:前几天 Facebook 刚开源了一个新的预训练语言模型——roBERTa,在 BERT 的基础上增加了很多算力和训练的数据量。您觉得像这样疯狂地往模型上堆训练数据量和算力的方法,一定能取得很好的效果吗?冯洋:就同样的模型来说,堆算力、扩大训练数据集肯定会有更好的效果。但是,这样的方法更适合工业界。因为工业界有实际的应用,也有相应的能力,可以这样去做。在学术界来说,我们更要关注到算法方面的突破。有了好的算法,再加上好的算力,才能有更好的加成。学术研究需要夯实理论基础,解决核心问题机器之心:在您选题、立题过程中,有没有一些经验可以给读者朋友们分享一下?冯洋:我建议我的学生去做以下几点。首先是要多读论文,这是肯定的。在读论文的过程中,不能只看对方做了什么,而是要善于去提炼论文要解决什么问题,然后是论文使用了什么样的方法。在选题立题的过程中,首先需要明确要解决的问题是什么。第二个是你的解决方案是什么。在这个过程中,可以选择解决认为很重要的问题,或者是很感兴趣的问题。也可以去发现别的研究者没有考虑到的,有很大提升空间的问题,可以从这两个角度来选择。机器之心:最后一个问题,您认为作为人工智能领域的研究者,应该秉持怎样的研究理念和治学的理念?冯洋:我觉得,研究者需要能做一些解决一个或多个任务的关键问题的研究。从根本上解决问题,触及问题的核心,而不是为了把神经网络做好而去做研究。此外,在学生培养上,我希望大家不要急着发论文,要做好的研究。平时要注意多做一些基础理论的积累,当基础理论打扎实了,研究的路会越走越宽。如果仅靠拍脑袋或者一时的灵感去做研究,刚开始能摘到一些低枝的果实,可能比较容易出成果。慢慢的,当大家都研究得越来越难的时候,出成果就会比较困难了。