欢迎来到加倍考研网! 北京 上海 广州 深圳 天津
微信二维码
在线客服 40004-98986
推荐适合你的在职研究生专业及院校
博士生选择和运气比努力更重要,如何快速获得博士学位?露西娅

博士生选择和运气比努力更重要,如何快速获得博士学位?

十大高校博士生和本科生规模对比博士生的选择比努力更重要虽然中国高等教育水平不断扩招,博士生每年招生规模也高达5万人,但是博士生招生指标大部分被中科院和教育部重点高校所占据,由于博士生招生改革,很多高校和科研院所不需要考试,只要博士生导师通过面试,通过学校内部的考核合格就可以直接录取,因此博士生申请要比硕士研究生考试要简单的多,但是由于大部分高校属于自主招生,高校每年的博士生指标非常的少,大部分高校尤其是985高校的教授们更喜欢自己本校的研究生和博士生,因此如果想要攻读博士,一定要关注自己就读的高校的博士生招生指标,如果你在郑州大学读本科和硕士,那么你想要申请到博士学位的机会就非常的小。勇敢努力的万蕊雪 从中山大学到清华的努力2018年中国最火的博士生莫过于清华大学的万蕊雪,博士还没有毕业就手握6篇《science》和2篇《cell》主刊论文,还获得了世界顶级科技期刊《科学》杂志评选的青年科学家奖,成为首位获得此项荣誉的中国本土博士生,当年万蕊雪作为中山大学的本科生,借助自己对生物的兴趣爱好和优秀的成绩,尝试报名清华大学施一公团队实习的机会,从此万蕊雪在清华大学完成本科毕业设计直到在清华大学直博。中科院自杀博士生不断自杀的博士生事件攻读博士学位并不适合所有人,特别是把攻读博士作为逃避就业压力的人群,攻读博士需要兴趣和爱好,可以一心投入科研实验工作中,没有早九晚五,很多科研工作者经常深夜加班工作做实验,想要好的科研数据结果,就必须通过大量的科研实验,其实在海外高校每年中途放弃博士学位的学生有很多,反而在国内博士如果毕不了业就成异类,各种自杀事件让很多教授不敢强加压力给自己的博士生,加上国内很多不合格的博士生导师,造成中国高校博士毕业生基本上科研水平都很低,很多教授还得自己帮着自己的学生写论文毕业!选好导师是博士毕业的捷径 选择好的博士生导师是博士毕业的捷径首先选择自己爱好的科研方向,其实先从感兴趣的高校中寻找合格的博士生导师,尽量规避带行政职位的教授,这些教授的博士生名额基本被本校自己的硕士生占据,做这样的尝试基本属于白费功夫,而且行政职务教授非常忙,很难有时间指导学生做科研,最佳的选择是刚入校不久的海归教授,这些年轻的教授自身的科研水平非常高,大部分被特聘的年轻教授都有多年的海外科研经历,从他们身上可以学到很多有用的知识,其次,这些新入职的教授由于刚回国,本校优秀的研究生一般都被自己的导师截流,这些教授需要组建自己的团队,他们更偏重那些努力的研究生,如果寻找到一位冷门的新教授,那么你的博士生涯就会顺利很多,这些新入职的特聘海归教授都会有考核任务,他们的科研干劲非常足,跟着这些导师,博士期间发表论文也变得容易很多,所以选好博士生导师是博士毕业的最佳捷径!单选|博士毕业努力重要还是选择重要?博士生选择比努力重要的多!运气是给努力的人准备的!博士生导师可以影响你的人生!还是自己的努力比选择重要!打开百度APP进行投票

百材皆度

微博快速获得阅读量技巧

如果你的博文没有阅读量那证明你的微博也没有什么太大的意义了,一个没有阅读量的微博证明没有人观看你的微博,所以玩微博一定要让自己的博文获得越来越多的阅读量,一个有着超高阅读量的微博,有着很大的价值。一、什么是微博阅读量?微博的阅读量就是指:看过你发的这条微博的人数,这个数据是很关键的,也关乎到你真正的实力。微博的阅读量越高,代表你所发表的内容被人知道的越多,越容易推广和宣传。二、阅读量低的原因有哪些?大致分析有这么几种情况:1、好多天不更新你的微博,粉丝们没有足够的耐心那么久而久之,粉丝流逝,相应的阅读量肯定会减少。2、你不和关注你的人互动,你发帖是一条又一条,关注你的人是点赞又评论,而你却置之不理,只管蒙头发帖,时间长了粉丝流逝,相应的阅读量也会减少。3、你的粉丝质量不太好,随着时间的推移已经有许多人不怎么上微博了,当然你所发的微博曝光量肯定不会有以前多了,比如你有5000粉,正常阅读量在5000+,甚至还多,那么现在有可能2000人上微博,曝光量变少,阅读量就有可能是1000+,这个数量也可能还会减少,直至为零。4、就是微博官方的一些条条框框,你没有遵守,那么有可能官方会限制你的曝光量,如果你还不改正,你会发现你的阅读量会逐渐减少。三、如何提高自己的微博阅读量?1、多发博文最简单粗暴的方法,你发一条微博跟你发十条微博的阅读量肯定是不一样的,所以每天多发几条微博会让你的阅读量数量有一定的增加,但同时发得太多也是有弊端的,会让读者疲惫,所以博文的数量也要适度。2、多评论多去一些大V或者名人的微博底下评论,留下自己观点,也会增加你的曝光,也许有意想不到的收获。3、多参加热门话题讨论想让你的阅读量在最快速的情况下达到过万的阅读量,可以去蹭一些当天的热门话题,当然前提是你的微博是实时号,蹭热搜话题时,尽量找跟你博文相关的话题,配上相关的图片,如果你能蹭上热搜话题,只要你发布,你的博文阅读量瞬间可以达到上万甚至更高的阅读量(如下图),大大的增加了你微博的曝光率。微博上不管是什么话题总有人们在不断的讨论,甚至有些话题,人们会一直带着,还会有对应建立的超话,发博时都可以带上,(一条博文带的话题最好在2个为最佳)4、专注自己的垂直领域最主要的是你的微博内容,高质量的内容是必不可少的,如果你的内容足够吸引人,那么你的博文自然就会有很多人去观看,只要博文一被其他博主转发,那又增加了被转发博主粉丝看到的机会,得到了二次曝光;5、发布时间时间段同样也是很重要的,你要是选在不适合的时间段去发布博文,想必被阅读的数量会极少,那么什么样的时间段才是最好的呢?在人潮涌动的时间发微博要比夜深人静,少有人上网的时间效果好的多,那么最好的发博时间上午9点多一点,一大早人们刚忙完。中午12点至1点,正在午饭,很多微博控都是边吃边刷微博。下午5点到6点,工作的人们刚下班,刷刷微博放松一下,晚上8点到10点,大多数人刚吃完晚饭,休息上网消遣的时间段。6、多互粉互关好友之间的互动会更多一些,且刷微博时互关好友的博文也会先展示出来,如果关注对方没有回粉的话有两种情况,一是僵尸粉,二是不屑和你互粉,那就果断取之。和及时回粉的博主多互动。7、超话发博可以多关注一些名人、明星的超话,多去超话里发帖子。超话发博时,可以选择是否同步到微博(如下图),勾选上即为同步到微博,但即使不同步到微博,超话里的人也同样可以看到,同样会增加博文的阅读量。8、付费去进行推广:如果你觉得自己去优化去坚持太麻烦了,你只是想要某一条微博让很多人看到的话,你也可以去微博当中的付费推广,可以用钱以广告的形式推送给更多的朋友。(如下图)四、获得阅读量有哪些好处?微博上面有足够的阅读量是可以提高你博文的曝光,增加别人关注你的机会,多涨粉丝,上热门的机会也会变大哦,一直很高的话甚至会有人找你发广告达到变现。如有疑问,记得问我!

风雪配

当你还不知道何谓考博时,直博生正在快速扩张,硕博连读继续发力

转眼之间,又到了全国各大院校发布2020年博士研究生招生简章的时间。作为一名关注法学考博3年有余(从2016.07.15清华大学2017年博士研究生招生简章发布至今)的老油条,每当有人询问我一些考博基础常识时,越来越显得有点不耐烦。因为他们想咨询的那些问题已经或者正在成为历史的产物,除非研究教育史,对当下及未来的考博已经没用了。而你还想让我用微信文字给你说清楚,或者给你检索一下考试时间,这样的咨询谁有耐心做。很多年前,法学考博很单纯,只有一种,你报名、参加初试、复试、录取的考试制,而当下法学考博已经演变为推免直博、本硕博贯通、硕博连读(含本科推免硕博连读)、申请考核制、专项计划、高校教师提升计划、留学读博、同等学力申博、普通考试制等。2020年之前北京大学考博还有考博英语之说,2020年之后这已经成为传说;2017年之前,清华大学考博还是普通考试制,甚至2017年清华大学法学院第一轮招生出现报名人数不够的现状,而当下已经全部采用申请考核制。几年前不少院校的学生还无法通过英语六级,而中国社会科学院大学2017级本科生大学英语六级一次通过率为97.7,大学英语四级平均分为553.5分,大学英语六级平均分达到531,而你还在说500分的报名条件太高了吧。清华大学自1981年国家建立学位制度至2018年底,共授予博士学位26611人,而2019级博士生就有3164人。中国科学院大学博士生导师6432名,浙江大学2020年招生的博士生导师2931人,清华大学在岗博士生导师2800余人,北京大学现有博士生导师2300余人。所以,请不要再拿着2018年以前的数据、经验贴来交流啦!近日浙江大学发布的2020年浙江大学直博生招生目录显示,招收直博生的导师多达175页,近3000人。而所有院校的博士研究生招生简章里面都有类似“硕博连读和本硕博连读,均占2020年的博士计划。”的话,也就是今年招生的本硕博连读学生占用未来的某一年的招生指标。所以如果现在还有人告诉你排队某导师后年就可以轮到你了,那么请务必不要信了,因为导师今年、明年可能已经招收了本硕博连读、硕博连读学生,他后年没有招生指标了。在2017年之前,在法学考博市场,好像每年只有浙江大学招上几个本硕博连读考生,而2019年已经有吉林大学、中山大学、中南大学、浙江大学、东南大学、上海财经大学等众多院校采用,其中吉林大学、中南大学、浙江大学等已经陆续实现直博生招生0的突破。从当前的各项运营指标来看,直博生的招生名额占据总招生名额的10%-20%。而我们又知道,硕博连读制度已经运行多年,主要遴选即将毕业的应届毕业生,而从四川大学、上海财经大学、东南大学、山东大学等等院校的硕博连读招生规定来看,已经不再局限于即将毕业的学子,而是从研一下学期就开始遴选,山东大学等院校更是探索从硕士研究生推免生中直接录取硕博连读考生,基本上等同于本硕博连读。对于直博生这项制度,当前大部分博士点单位都有相关的招生政策,不少院校也已经实行多年。仅从法学博士招生来看,有的院校直接采用推免制直博生(对外招生),有的院校仅从本校本科生中遴选,也有一些法学院一直没有跟随学校招收直博生的趋势,而是坚守申请考核制(典型代表为中国人民大学法学院)或者普通考试制(典型代表北京师范大学)。从诸多先例可以看出,虽然法学院都可以多坚守几年传统的招生模式,但是在学校全面申请考核制的大背景下,法学院也是积极的追随者,当下每年被录取的1600多名法学博士通过申请考核、硕博连读渠道录取的已经多余800人。当然写下本文,一方面是分析一下当下考博的整体趋势,另一方面也是想再次提示考博咨询是有技巧、方法的,那就是自己先行了解目标院校的招生制度,不要再去询问那些有点过时或者根本没有通用解决方案的问题了。例如考博英语如何复习的问题,你首先得确定这个学校还有没有考博英语,如果都没有,你还在那里纠结,除了浪费时间还有什么用处?再如考博真题,你得确定人家还有没有考试?怎么考试的?参加考试的资格是什么?说实在的相当一批人是没有考试资格的,因此要真题没用。时代巨变,考博市场年年变,我们考博人应该适应这种变化,及时自主地开展相关研究,而不能凡事都想让别人分享给你。根据最新的消息,当前已经被录取为2020级的法学博士生为个位数,而清华大学法学院的2020级博士拟录取名单已经基本敲定,只需要经过下一步的公示即可,也就是下个月被确定录取的法学博士将接近100人(不少院校近期会公布直博生、硕博连读生名单)。而此时的你是否还在纠结“什么是考博?什么是博士?我要考博吗?”等这些问题吗?对了,一些学校,我们这些普通考生根本不符合报名条件,咱们也就别关注人家学校了,否则影响心情。

剧场前

国内双一流大学:应尽快提高博士生招收数量

根据公开资料, 2018年,全国研究生招生总规模达到88.4万人,其中硕士生约79.0万人、博士生约9.4万人。除极个别高校外,我国一流高校均以硕士生为研究生培养的主要对象,大量科学研究、技术开发以硕士生为主,严重制约科技创新发展。改变我国研究生招生结构、提高博士生占比刻不容缓。况且,目前硕士生存在培养年限短、深入融入科研不可能等问题。建议教育部等有关部门进一步总结我国恢复研究生培养以来取得的优异成绩,特别是在博士生培养方面取得的突出成绩,加大宣传。有人建议教育部、财政部等相关部门尽快协商,重新定位研究生培养目标与方式,调整我国硕士生、博士生招生比例,尽快提高博士生占比,从根本上优化研究生招生结构。不以招收硕士研究生作为解决本科生就业的渠道或方式。建议对双一流建设高校的博士点,在研究生招生结构尚未改变情况下,实施类似的硕士生名额换博士生名额的方式,保证这些院校对博士生的需要。并进一步加强对我国博士研究生培养质量的监管,保证培养质量。目前,硕士生招收数量大约是博士生的8倍,也就是意味着8个硕士生,只有1个能最后变成博士生。为什么庞大硕士生群体进入博士生培养的人数这么少?这是因为随着国家各种岗位的调整和制度改革,不管是公务员,还是事业单位的编制数量日趋减少,很多稍微稳定一点的岗位,都要硕士学历以上,但并不是非常想要博士这种高学历,因为高学历新人意味着高工资,还可以少干活,对单位其他老人来说很不公平,高校和科研院所除外。这就导致很多人并不愿意都选择读博士,还是更倾向于早早就业,先生存后发展也未尝不可。另外一个原因,可能就是博士毕业的要求逐年提高,而科研领域发展很快,越做越难的发展趋势让很多硕士生望而止步,与直接就业相比而言,读个博士性价比太低,风险也不小,这几年必须保佑所有科研工作都会一切顺利,否则能不能毕业还是一个未知数。就算博士毕业,选择高校,也要从讲师做起,不再像以前那样“一旦博士毕业,就能给副教授待遇,给房子不说,还有一笔可观的安家费”,现在啥都没有,大多数高校的安家费也很低,加上工资过于稳定,几年下来很可能都买不到一个10平方米的“厕所”,这也是很多家庭经济一般的硕士生不敢轻易选择读博的第三个重要原因。所以,要想让更多硕士生去读博,为祖国科研事业做贡献,还得有一套就业保障机制和激励措施,让他们读博之后无后顾之忧,但是如果一味追求博士数量的提高,恐怕只会适得其反。

天下不堪

资源| 博士生开源深度学习C++库DLL:快速构建卷积受限玻尔兹曼机

选自baptiste-wicht机器之心编译参与:刘晓坤、蒋思源Baptiste Wicht公布了自己编写的深度学习库DLL1.0,可以通过C++接口使用。文中通过几个例子介绍了DLL调用全连接网络、DNN的能力,并通过实验和其它流行框架如TensorFlow、Keras、Torch和Caffe作了综合性能比较。很高兴公布深度学习库 Deep Learning Library(DLL)1.0 的第一个版本。DLL 是一个神经网络库,致力于提供快速和易用的使用体验。项目地址:https://github.com/wichtounet/dll我从四年前为完成 Ph.D. 论文而开始搭建这个库。我需要一个好用的库来训练和使用受限玻尔兹曼机(RBMs),而当时并没有这样的条件。因此,我决定自己编写。现在它能很完美的支持 RBM 和卷积 RBM(CRBM)模型。RBMs(或深度信念网络,DBNs)的堆栈可以用对比分歧(Contrastive Divergence)预训练,然后用 mini-batch 梯度下降或共轭梯度法进行微调,或者直接作为特征提取器。经过多年发展,该库已经扩展到可以处理人工神经网络(ANNs)和卷积神经网络(CNNs)了。其中网络还可以训练常规的自动编码器。还能使用多种高级层比如 Dropout 或 Batch 正则化,以及自适应学习率技术比如 Adadelta 和 Adam。这个库还能集成支持这几个数据集:MNIST,CIFAR-10 和 ImageNet。这个库可以通过 C++接口使用,完全的仅有标头档(fully header-only),需要 C++14 编译器,即至少需要 clang3.9 或 GCC6.3。调用案例我们先看看下面这个使用库的例子:# include "dll/neural/dense_layer.hpp"# include "dll/network.hpp"# include "dll/datasets.hpp"int main ( int /*argc*/ , char * /*argv*/ []) {// Load the datasetauto dataset = dll :: make_mnist_dataset ( dll :: batch_size < 100 >{}, dll :: normalize_pre {});// Build the networkusing network_t = dll :: dyn_network_desc <dll :: network_layers <dll :: dense_layer < 28 * 28 , 500 >,dll :: dense_layer < 500 , 250 >,dll :: dense_layer < 250 , 10 , dll :: softmax >>, dll :: updater < dll :: updater_type :: NADAM > // Nesterov Adam (NADAM), dll :: batch_size < 100 > // The mini-batch size, dll :: shuffle // Shuffle before each epoch>:: network_t ;auto net = std :: make_unique < network_t >();// Train the network for performance sakenet -> fine_tune ( dataset . train (), 50 );// Test the network on test setnet -> evaluate ( dataset . test ());return 0 ;}这个例子是在 MNIST 数据集上训练并测试的简单 3 层全连接神经网络。首先,对于头文件(include),你需要包含你将使用的层,在这个例子中只有密集层(dense layer)。然后,你需要包含 network.hpp,这是每一个网络的基本头文件。而且最后的标头就是数据集支持。在 main 函数中,首先需要加载全部 MNIST 数据集,然后给出两个选项(该函数有一系列可选的参数)。在这里,我们设置批量大小,并指示每一个样本都必须归一化为平均值为 0,方差为 1。之后是很重要的部分,即网络的声明。在 DLL 中,一个网络是一个类型(type)。类型有两个性质,层(layers,包含在 dll::network_layers 中),和选项(options,一系列参数选项),跟随层之后。在这个例子中,我们声明了三个层,第一层有 500 个隐藏单元,第二层有 250 个,而最后一层有 10 个。每一层都有一系列参数选项。最后一层使用 Softmax 激活函数,而不是默认的 Sigmoid 函数。网络本身有 3 个选项。我们将使用 Nesterov Adam(NAdam)优化器,批量大小为 100(必须等于前面数据集提取时声明的批量大小),而在每一个 epoch 之前数据集将被重组(shuffled)。然后,我们将简单地使用 std::make_unique 命令创建该网络,在训练集上训练 50 个 epoch,并在测试集上测试。以下是该网络的代码:Network with 3 layersDense ( dyn ): 784 -> SIGMOID -> 500Dense ( dyn ): 500 -> SIGMOID -> 250Dense ( dyn ): 250 -> SOFTMAX -> 10Total parameters : 519500DatasetTraining : In - Memory Data GeneratorSize : 60000Batches : 600Augmented Size : 60000Testing : In - Memory Data GeneratorSize : 10000Batches : 100Augmented Size : 10000Train the network with "Stochastic Gradient Descent"Updater : NADAMLoss : CATEGORICAL_CROSS_ENTROPYEarly Stop : Goal ( error )With parameters :epochs = 50batch_size = 100learning_rate = 0.002beta1 = 0.9beta2 = 0.999Epoch 0 / 50 - Classification error : 0.03248 Loss : 0.11162 Time 3187msEpoch 1 / 50 - Classification error : 0.02737 Loss : 0.08670 Time 3063msEpoch 2 / 50 - Classification error : 0.01517 Loss : 0.04954 Time 3540msEpoch 3 / 50 - Classification error : 0.01022 Loss : 0.03284 Time 2954msEpoch 4 / 50 - Classification error : 0.00625 Loss : 0.02122 Time 2936msEpoch 5 / 50 - Classification error : 0.00797 Loss : 0.02463 Time 2729msEpoch 6 / 50 - Classification error : 0.00668 Loss : 0.02066 Time 2921msEpoch 7 / 50 - Classification error : 0.00953 Loss : 0.02710 Time 2894msEpoch 8 / 50 - Classification error : 0.00565 Loss : 0.01666 Time 2703msEpoch 9 / 50 - Classification error : 0.00562 Loss : 0.01644 Time 2759msEpoch 10 / 50 - Classification error : 0.00595 Loss : 0.01789 Time 2572msEpoch 11 / 50 - Classification error : 0.00555 Loss : 0.01734 Time 2586msEpoch 12 / 50 - Classification error : 0.00505 Loss : 0.01446 Time 2575msEpoch 13 / 50 - Classification error : 0.00600 Loss : 0.01727 Time 2644msEpoch 14 / 50 - Classification error : 0.00327 Loss : 0.00898 Time 2636msEpoch 15 / 50 - Classification error : 0.00392 Loss : 0.01180 Time 2660msEpoch 16 / 50 - Classification error : 0.00403 Loss : 0.01231 Time 2587msEpoch 17 / 50 - Classification error : 0.00445 Loss : 0.01307 Time 2566msEpoch 18 / 50 - Classification error : 0.00297 Loss : 0.00831 Time 2857msEpoch 19 / 50 - Classification error : 0.00335 Loss : 0.01001 Time 2931msEpoch 20 / 50 - Classification error : 0.00378 Loss : 0.01081 Time 2772msEpoch 21 / 50 - Classification error : 0.00332 Loss : 0.00950 Time 2964msEpoch 22 / 50 - Classification error : 0.00400 Loss : 0.01210 Time 2773msEpoch 23 / 50 - Classification error : 0.00393 Loss : 0.01081 Time 2721msEpoch 24 / 50 - Classification error : 0.00415 Loss : 0.01218 Time 2595msEpoch 25 / 50 - Classification error : 0.00347 Loss : 0.00947 Time 2604msEpoch 26 / 50 - Classification error : 0.00535 Loss : 0.01544 Time 3005msEpoch 27 / 50 - Classification error : 0.00272 Loss : 0.00828 Time 2716msEpoch 28 / 50 - Classification error : 0.00422 Loss : 0.01211 Time 2614msEpoch 29 / 50 - Classification error : 0.00417 Loss : 0.01148 Time 2701msEpoch 30 / 50 - Classification error : 0.00498 Loss : 0.01439 Time 2561msEpoch 31 / 50 - Classification error : 0.00385 Loss : 0.01085 Time 2704msEpoch 32 / 50 - Classification error : 0.00305 Loss : 0.00879 Time 2618msEpoch 33 / 50 - Classification error : 0.00343 Loss : 0.00889 Time 2843msEpoch 34 / 50 - Classification error : 0.00292 Loss : 0.00833 Time 2887msEpoch 35 / 50 - Classification error : 0.00327 Loss : 0.00895 Time 2644msEpoch 36 / 50 - Classification error : 0.00203 Loss : 0.00623 Time 2658msEpoch 37 / 50 - Classification error : 0.00233 Loss : 0.00676 Time 2685msEpoch 38 / 50 - Classification error : 0.00298 Loss : 0.00818 Time 2948msEpoch 39 / 50 - Classification error : 0.00410 Loss : 0.01195 Time 2778msEpoch 40 / 50 - Classification error : 0.00173 Loss : 0.00495 Time 2843msEpoch 41 / 50 - Classification error : 0.00232 Loss : 0.00709 Time 2743msEpoch 42 / 50 - Classification error : 0.00292 Loss : 0.00861 Time 2873msEpoch 43 / 50 - Classification error : 0.00483 Loss : 0.01365 Time 2887msEpoch 44 / 50 - Classification error : 0.00240 Loss : 0.00694 Time 2918msEpoch 45 / 50 - Classification error : 0.00247 Loss : 0.00734 Time 2885msEpoch 46 / 50 - Classification error : 0.00278 Loss : 0.00725 Time 2785msEpoch 47 / 50 - Classification error : 0.00262 Loss : 0.00687 Time 2842msEpoch 48 / 50 - Classification error : 0.00352 Loss : 0.01002 Time 2665msEpoch 49 / 50 - Classification error : 0.00232 Loss : 0.00668 Time 2747msRestore the best ( error ) weights from epoch 40Training took 142serror : 0.02040loss : 0.08889首先正如代码中所示,是网络和数据集的展示,然后是网络的训练过程的每一个 epoch 的信息,最后是评估的结果。在大约 2 分半的时间内就能训练一个可以识别 MNIST 数字的网络,而错误率是 2.04%,这个结果不错,但还能继续优化。简单介绍一下如何编译。可以直接使用 sudo make install_headers 命令下载 dll 库到你计算机 checked-out dll 文件夹上,然后使用一下命令对文件进行简单的编译:clang++ -std=c++14 file.cpp或者,如果需要将 dll 复制到本地的 dll 目录中,你需要具体说明头文件的文件夹:clang++ -std=c++14 -Idll/include -Idll/etl/lib/include -dll/Ietl/include/ -Idll/mnist/include/ -Idll/cifar-10/include/ file.cpp以下几个编译选项可以帮助你提升性能:-DETL_PARALLEL:允许并行计算-DETL_VECTORIZE_FULL:允许算法的完全向量化-DETL_BLAS_MODE:将使该库 know about 一个 BLAS 库(比如 MKL),你必须为 BLAS 库添加一个头文件选项和连接选项作为可选项。-DETL_CUBLAS_MODE: 使该库知道 NVIDIA cublas 是可用的,必须添加合适的选项(头文件目录和连接库)-DETL_CUDNN_MODE:使该库知道 NVIDIA cudnn 是可用的,必须添加合适的选项(头文件目录和连接库)-DETL_EGBLAS_MODE:使该库知道你安装了 etl-gpu-blas,必须添加合适的选项(头文件目录和连接库)如果想要得到最佳的 CPU 性能,需要用到前面 3 个选项。如果想要得到最佳的 GPU 性能,需要用到后面 3 个选项。由于有些算法并不是完全在 GPU 上计算的,最好使用所有的选项。接下来我们重复上述实验,但这次使用的是一个包含两个卷积层和两个池化层的卷积神经网络:# include "dll/neural/conv_layer.hpp"# include "dll/pooling/mp_layer.hpp"# include "mnist/mnist_reader.hpp"# include "mnist/mnist_utils.hpp"auto dataset = dll :: make_mnist_dataset ( dll :: batch_size < 100 >{}, dll :: scale_pre < 255 >{});dll :: conv_layer < 1 , 28 , 28 , 8 , 5 , 5 >,dll :: mp_2d_layer < 8 , 24 , 24 , 2 , 2 >,dll :: conv_layer < 8 , 12 , 12 , 8 , 5 , 5 >,dll :: mp_2d_layer < 8 , 8 , 8 , 2 , 2 >,dll :: dense_layer < 8 * 4 * 4 , 150 >,dll :: dense_layer < 150 , 10 , dll :: softmax >, dll :: updater < dll :: updater_type :: NADAM > // Momentum, dll :: shuffle // Shuffle the dataset before each epoch// Display the network and datasetnet -> display ();dataset . display ();// Train the networknet -> fine_tune ( dataset . train (), 25 );比起之前的例子来看并没有太多变化。这个网络起始于一个卷积层,然后是一个池化层,然后又是一个卷积层和池化层,最后是两个全连接层。另一个区别是我们将输入除以 255((dll::scale_pre<255>{}))而不是归一化。最后,我们只训练了 25 个 epoch。一旦进行编译和运行,结果将是如下所示的样子:Network with 6 layersConv ( dyn ): 1x28x28 -> ( 8x5x5 ) -> SIGMOID -> 8x24x24MP ( 2d ): 8x24x24 -> ( 2x2 ) -> 8x12x12Conv ( dyn ): 8x12x12 -> ( 8x5x5 ) -> SIGMOID -> 8x8x8MP ( 2d ): 8x8x8 -> ( 2x2 ) -> 8x4x4Dense ( dyn ): 128 -> SIGMOID -> 150Dense ( dyn ): 150 -> SOFTMAX -> 10Total parameters : 21100epochs = 25Epoch 0 / 25 - Classification error : 0.09392 Loss : 0.31740 Time 7298msEpoch 1 / 25 - Classification error : 0.07005 Loss : 0.23473 Time 7298msEpoch 2 / 25 - Classification error : 0.06915 Loss : 0.22532 Time 7364msEpoch 3 / 25 - Classification error : 0.04750 Loss : 0.15286 Time 7787msEpoch 4 / 25 - Classification error : 0.04082 Loss : 0.13191 Time 7377msEpoch 5 / 25 - Classification error : 0.03258 Loss : 0.10283 Time 7334msEpoch 6 / 25 - Classification error : 0.03032 Loss : 0.09791 Time 7304msEpoch 7 / 25 - Classification error : 0.02727 Loss : 0.08453 Time 7345msEpoch 8 / 25 - Classification error : 0.02410 Loss : 0.07641 Time 7443msEpoch 9 / 25 - Classification error : 0.02448 Loss : 0.07612 Time 7747msEpoch 10 / 25 - Classification error : 0.02023 Loss : 0.06370 Time 7626msEpoch 11 / 25 - Classification error : 0.01920 Loss : 0.06194 Time 7364msEpoch 12 / 25 - Classification error : 0.01810 Loss : 0.05851 Time 7391msEpoch 13 / 25 - Classification error : 0.01575 Loss : 0.05074 Time 7316msEpoch 14 / 25 - Classification error : 0.01542 Loss : 0.04826 Time 7365msEpoch 15 / 25 - Classification error : 0.01392 Loss : 0.04574 Time 7634msEpoch 16 / 25 - Classification error : 0.01287 Loss : 0.04061 Time 7367msEpoch 17 / 25 - Classification error : 0.01167 Loss : 0.03779 Time 7381msEpoch 18 / 25 - Classification error : 0.01202 Loss : 0.03715 Time 7495msEpoch 19 / 25 - Classification error : 0.00967 Loss : 0.03268 Time 7359msEpoch 20 / 25 - Classification error : 0.00955 Loss : 0.03012 Time 7344msEpoch 21 / 25 - Classification error : 0.00853 Loss : 0.02809 Time 7314msEpoch 22 / 25 - Classification error : 0.00832 Loss : 0.02834 Time 7329msEpoch 23 / 25 - Classification error : 0.00807 Loss : 0.02603 Time 7336msEpoch 24 / 25 - Classification error : 0.00682 Loss : 0.02327 Time 7335msTraining took 186serror : 0.01520loss : 0.05183这个网络比之前的稍微要好一些,在 3 分钟的时间里达到了 1.52% 的错误率。如果你感兴趣的话,可以在 Github 中找到更多的例子。性能如果你看过我最新的博客,那么你可能已经看过以下部分信息,但我仍然想在这里强调一下。我在 DLL 库的性能表现上做了大量工作。我决定将 DLL 的性能和流行的框架如 TensorFlow、Keras、Torch 和 Caffe 做个对比。我也试过 DeepLearning4J,但出现了很多问题使我不得不先放弃它。如果有人对其中的结果有兴趣我也可以在某个网站发布。所有的框架都以默认选项安装,并且都可以使用 MKL。第一个实验是在 MNIST 数据集上训练一个 3 层网络:对于 CPU,DLL 训练这个网络是最快的。比 TensorFlow 和 Keras 快大约 35%,比 Torch 快 4 倍,比 Caffe 快 5 倍。而对于 GPU,Caffe 是最快的,紧接着是 Keras,TensorFlow 和 DLL,而 Torch 是最慢的。以下是在同样的任务中使用 CNN 训练的结果:再一次,对于 CPU,DLL 是最快的,非常明显,比起 TensorFlow 和 Keras 快 4 倍,比 Torch 和 Caffe 快 5 倍。对于 GPU,DLL 和 TensorFlow 以及 Keras 持平,比 Caffe 快 3 倍,比 Torch 快 5 倍。以下是在 CIFAR-10 上用更大的 CNN 训练的结果:在更大的 CNN 中,区别没有之前的那么明显,尽管如此,对于 CPU,DLL 仍然是最快的,比 TensorFlow、Keras 和 Torch 快两倍,比 Caffe 快 3 倍。对于 GPU,DLL 比 TensorFlow 和 Keras 稍快,比 Caffe 快 2.7 倍,比 Torch 快 5 倍。最后一个实验是在 Imagenet 上用 12 层的 CNN 训练。mini-batch 设置为 128。DLL 无论是在 CPU 还是 GPU 上都比其它所有框架要快。DLL 和 TensorFlow、Keras 的最大的不同主要是由于用 Python 代码读取 ImageNet 的图片的能力很差,而 DLL 中的代码已经优化过。综上,在所有的实验中,DLL 的 CPU 计算都是最快的。对于 GPU,除了超小型全连接神经网络,DLL 也总是最快的,和 TensorFlow、Keras 并驾齐驱。如果感兴趣,可以在这里找到实验的代码:https://github.com/wichtounet/frameworks下一步我并不知道下一个版本的 DLL 将具体包括哪些函数,但我知道它在以后的发展方向。我真的希望能使用 DLL 执行文本分类任务。计划第一步将支持文本的嵌入学习,并在嵌入上使用 CNN。我同样计划添加支持合并 CNN 层的能力,从而我们能使用各种大小的滤波器,希望第一步不要花太多时间。第二步希望将循环神经网络(RNN)纳入该框架中。当然首先只会支持简单的 RNN 单元,但后来会添加 LSTM 单元和 GRU 单元的支持。这一部分肯定需要很长的时间,但我真的希望能通过这个理解这些循环神经网络的原理到底是什么。我关注的下一件事是该神经网络库的文档构建。当然现在使用案例来了解各种函数的用法是比较好的,但还是需要列出可能的神经网络层函数和它们所有的可选参数。我还希望能有更多的实现案例,特别是当添加嵌入和 RNN 支持的时候。此外,虽然性能一般来说还是不错的,但还有一些地方需要改进。例如目前很多运算(如批量归一化和 Dropout)在 GPU 上是比较低效的,我希望所有运算在 GPU 中都能高效地执行。还有一些运算如批量归一化或 SGD 优化器等在 CPU 上运行比较低效,所以我还需要解决这一些问题。理想的情况是,即使不使用性能库,DLL 也能表现的比较好。最后,我还希望能提升编译时间。虽然最近的修正已经令 DLL 程序的编译过程更加快速,但我还希望取得更快的速度。下载 DLL读者可以在 GitHub 中下载 DLL,如果你们对 1.0 版本比较感兴趣,可以直接查看发布页面(Releases pages)或复制 tag 1.0。下面还有一些分支:master 是永远的开发分支,可能并不是太稳定stable 分支永远指向最新的 tag,并不会经常更新对于未来的版本,总会有 tag 指向对应的 commits,你可以通过 GitHub 或发布的 tag 访问以前的版本。对于文档,当前最好的文档说明是目前可用的实现案例。你可以查看测试案例的源代码,其中该软件库每一个函数都得到了使用。如果这一次开发的神经网络库得到较多的关注,后面我们将关注文档的构建。原文链接:https://baptiste-wicht.com/posts/2017/10/deep-learning-library-10-fast-neural-network-library.html本文为机器之心编译, 转载请联系本公众号获得授权。------------------------------------------------加入机器之心(全职记者/实习生):hr@jiqixin.com投稿或寻求报道:content@jiqixin.com广告&商务合作:bd@jiqixin.com

11岁上科大,15读研,科大读博失败,赴美10年却成危险对象

读博却在科大和美国均失败他是实打实的天才,出生书香世家,11岁便考上了中国科技大学少年班,15岁的时候,别人还在中学,他已经是研究生。然而到了读博的时候,情商低的问题逐渐暴露出来,导师意见听不进去,一味的坚持己见,在国内读博待不下去,前往美国普林斯顿大学深造,却成为潜在威胁对象,再次被接回了科大。他叫谢彦波。智商惊人,年少成名上学之前,谢彦波因为是在乡下成长,所以并未凸显出多么高的智商。上学之后,老师发现他,点名回答问题时不说话,但是做作业都对,就告知谢彦波父亲,孩子的相关情况。谢彦波父亲是一名物理老师,有一次在检查儿子作业的时候,发现他作业本上一道五年级的题目,居然做对了,而那个时候的谢彦波刚上二年级。一番询问才知道,儿子听了一遍五年级的课堂,所以就会做了。惊讶于孩子的高智商,父亲决心好好的培养这个孩子。此后,父亲开始亲自指导儿子的学习,制定了严格的学习计划,学习之余,也会适当的安排孩子喜欢的游戏。坚持了一年的时间,他已经可以把初中的数学都学完了。第二年,又完成了高中的数理化课程。第三年,谢彦波开始钻研大学微积分课程。后来,参加高二数学竞赛,拿到了第二名。之后参加长沙市的高中数理化竞赛,也名列前茅。就这样,还没有念完小学的谢彦波,几战之后,快速成名,也被中国科技大学所注意到。中科大少年班的负责人,几次测试之后,决定录取这个优秀的少年,此时的谢彦波刚刚11岁的年纪。高智商,却没有高情商在学业上,谢彦波一直都是顺风顺水的,进入科大之前,他更多的是和家里人相处,而到了科大少年班,因为谢彦波年纪太小,对于年纪比较大的同学,他不知道如何相处。谢彦波虽然是城里孩子,但是在1岁的时候,因为父母工作忙,被送到了乡下奶奶家。一直到快上学的年纪,才被接回去。他性格内向,不怎么说话,刚开始上小学的时候,老师提问从来不回答。起初的时候,母亲也非常忧虑,想要慢慢引导他改变。但是父亲觉得,到了一定的年纪,自然会“开窍”,加上后来儿子的智商展现,在孩子的教育上,更多的是放在一路超车。在科大虽然磕磕绊绊,并未影响他到的学习,15岁这年,高智商的他考上了科大研究生。而随着年龄的增加,谢彦波的情商并未开窍,一度和导师的关系不太和睦。兜兜转转,10年博士未毕业研究生阶段,谢彦波虽然和导师不睦,但是因为爱才之心,导师还是让他毕业了。刚开始读博的时候,谢彦波是跟着周光召院士学习的,但是这个过程中,年轻气盛的谢彦波,对导师提出的一些意见不接受,一味坚持自己的想法。不到一年的时间,导师对这个博士失望至极。后来谢彦波远赴美国,攻读普林斯顿大学博士学位,本来是冲着安德森教授去的,但阴差阳错的,跟着另外一位女教授学的,到了提交论文的阶段,安德森教授的通知书到了,他二话不说,立马转头安德森教授门下。可是跟着安德森教授做研究的时候,他的理论站在了安德森教授理论的对立面。因为立场的不同,安德森曾经委婉的拒绝了他,但是,谢彦波不相信安德森会有门派之见,执念的跟随。兜兜转转,折腾了9年的时间。后来,美国发生了一件枪击事件,一个北大留美学生因为和导师关系不好,便拿着枪杀了自己的导师还有同学,最后又自杀。一时间,谢彦波因为和导师不睦也成了美国潜在的危险,就这样,彻底结束了谢彦波的留学生涯。中科大的领导,决定将谢彦波带回来。之后,天才谢彦波转身做了他曾就读的中国科技大学理学院的老师。从第三视角来看,谢彦波就是执着于学术追求,并没有错。但是从与人相处上,他却是失败的。从硕士,到博士,十几年的时光,他多走了许多弯路。原本,并不是一件复杂的事情,却因为他的低情商,对自己的人生造成了惨重的损失,不知道,他可曾后悔过。

放課後

南京大学督促8年还未毕业的206位博士尽快答辩,不然退学处理

2019年10月11日,南京大学研究生院对外发布关于敦促即将学习期满的2012级博士研究生、 2016级硕士研究生尽快答辩的通知。通知称“现有206位2012级博士研究生、98位2016级硕士研究生尚未答辩,请同学们抓紧时间于期满前通过答辩、顺利毕业,并请相互转告。”根据南京大学的官方简介,我们知道南京大学目前拥有博士研究生6496人,按照每年人数相同,按照3年计算,那么一年招生的人数大致为2000人。根据《南京大学研究生学籍管理实施细则》第三十六条第一、二款规定“(一)全日制博士研究生取得学籍后,最长学习年限(含休学和保留学籍)为8年。对于未能在第9学年9月份校学位评定委员会开会讨论之前完成论文答辩且提交相关材料至研究生院的博士研究生,学校将视之为自动中止学业,予以退学,准予肄业。(二)全日制硕士研究生取得学籍后,最长学习年限(含休学和保留学籍)为4年。对于未能在第5学年9月份校学位评定委员会开会讨论之前完成论文答辩且提交相关材料至研究生院的硕士研究生,学校将视之为自动中止学业,予以退学,准予肄业。”结合上述通知,我们知道2012级博士研究生至少有10%(2012年的招生人数应该少于2000人,当前部分专业为4年制,甚至更长)的学生已经读博8年了,即将面临被退学的风险。在2019年两会期间,全国人大代表、南京大学校长吕建提出,延期博士,需合理分流。因为我国博士按期毕业率比较低,2012年的时候40%的人无法按期毕业,目前这个比例可能达到了65%,从年限上来看,三年博士最长八年毕不了业。在此之前我们曾经发布过2019年已有1000多人硕博研究生被退学的文章。参见:过去半年,我们关注到的高校退学公告,当前硕博研究生无法正常毕业已经成为一个非常严重的问题,不知道大家关于这个话题有什么建议?欢迎大家就不能按期毕业的博士如何合理分流发表自己的观点与建议。

莫泊桑

读研很难,想快速进入状态,这样看资料,或许有立竿见影的效果!

文/十八木“听风也听雨,飘雪落澜庭。用心书写教育。” 【本文选自十八木之《读研》系列文章】想必很多研究生都有切身体会,不管是读研还是读博,导师经常强调的一件事情就是“多看资料”。对于刚刚从本科阶段进入研究生阶段的学生来说,通常很难明白这句话的重要性,有些学生或许根本就没当回事。读研期间,但凡是将“多看资料”当成一件事且认真去执行的同学,读研之路都相对比较顺利;而那些把导师叮嘱的“多看资料”当成耳边风的同学,通常会越到后面越艰难。读研之初,不管是跨考还是读本专业,大多数的学生对研究生期间要开展的科研工作基本上处于“两眼一抹黑”、一无所知的状态(除非是本科期间已经提前参与到课题组开展了工作),要想快速“切换进入”课题组学术氛围,首先要做的事情,不是找导师也不是找师兄师姐,而是大量阅读资料。而阅读资料本身也是读研期间需要掌握的一种基础技能!读研为什么难?因为刚开始都是完全迷茫不知所措!要想从无到有,从完全无知到熟悉再到精通,采用以下的方法,坚持一个学期,就会有非常明显的效果!首先,熟悉常用数据库查阅资料首先要知道,资料从哪里来?一般来说,经历了本科毕业论文阶段的基础训练,学生会初步知道一些基础的获取资料的渠道,例如从图书馆、从知网查阅等。由于本科毕业论文对文献要求通常比较低(一般只要求查阅几十篇文献),很多学生在进入研究生阶段之初,对查阅资料的常用数据库情况并不是很清楚。所以,读研首先要掌握一些常用的数据库,如知网、万方、维普、科学引文索引(SCIE)、Engineering Village、Elsevier、Springer等。广泛阅读,扩充视野常用数据库使用方法基本掌握后,就可以开始搜索资料了。广泛阅读可以先从中文资料开始,逐步过渡到外文资料。对于刚刚进入课题组的学生来说,查阅资料的领域也可以广泛一些,不必仅仅拘泥于导师的研究方向,可以适当发散一下,相关相近领域的资料也不妨读一读。例如导师主要做3D打印控制方向,你除了大量查阅3D打印控制方面的资料之外,也可以看看3D打印材料方面的文献。进入课题组之初广泛阅读的好处在于,不仅可以增加知识面,而且可以扩充视野,可能为后续开展研究过程中的创新思维提供一些基础。当然需要注意的是,这里广泛阅读的核心还是要围绕课题组的主方向。精细阅读,寻找方向在广泛阅读资料的基础上,对所阅读的资料进行分门别类的精细阅读,也就是“精读”阶段。广泛阅读时,阅读速度可以相对较快,一天可以泛读多篇文献,但一旦到“精读”阶段,就需要沉下来,认真仔细阅读了。“精读”的文献主要就是将来自己需要开展的研究领域,这时候就可以边读文献边做一些总结。我们以前上学时,没有如今发达的网络和电子文档,那时候都是抄写。看到资料中对将来自己的研究可能有用的地方,都抄录下来。现在电子文档很方便,可以直接在电子文档中用不同颜色做一些标记,当然文献的归类也很关键,自己要事先规划好,因为即使是在电脑中,如果一开始没有规划好,几百上千篇文献也很容易弄乱,再找就比较费时间了。建议使用一些文献管理的软件。通过精读文献,比如精读200篇以上的文献后(外文100篇以上),你会发现,当时导师给你大致指定的研究方向,当时一无所知的相关研究,这时候你已经开始有拨开云雾见青山的感觉,开始找到自己的研究方向。这时候那种刚开始时因为不懂而焦虑不安的感觉可能忽然就消失了。精炼和深入分析如果说广泛阅读相当于寻找“玉石”的过程,“精读”就相当于找到了“原玉石”,而“精炼和分析”就相当于对“玉石”精雕细刻了。找到了研究方向,就要围绕具体的研究方向,去开展新一轮的更加细致的资料查找和精读工作,然后对相近研究领域的“重点资料”进行精炼发掘,深入分析现有研究的进展和发展方向,找出某个具体研究点的不足以及可能的改进措施或可以探讨的方向,如果是工科的学生,这时候就可以针对性的设计相关的实验,开始开展自己的研究工作了。当然,在具体的研究过程中,需要根据实验结果,不断地对研究方案作出调整,这时候依然需要持续地查阅相关资料。结语古人说,读书破万卷,下笔如有神!因为古代读书最终考核大都是写文章,所以“读书破万卷”带来的好处是“下笔如有神”!其实主要是指读书读到一定程度,写文章的“感觉”就有了,“灵感”就来了。对于现如今读研读博,阅读资料“破万卷”,带来的好处同样是,开展研究的“感觉”开始找到了,研究思路就渐渐清晰了,就可以设计比较合理的研究内容和研究方案,也再不会问一些“外行”的、导师一听到就一头是火的幼稚问题,一步步也就走过来了。再往后,就是在实验室的“打磨”(如果需要做实验的话)。走到这一步时,也就完成了从“什么都不懂的研一小师弟小师妹”到“什么都懂的研三大师兄大师姐”的成功过渡。后面的毕业论文和答辩也就顺理成章。而这一切,都得益于科学地查阅资料。需要强调的是,读研读博期间,要将“阅读资料”当成一种习惯,就像每天吃饭睡觉一样!只要能做到这一点,读研也就不是那么难了。当然,开展具体研究过程中,也依然会遇到很多实际困难,那是后话了。 【用心书写教育,《大学往事》《读研》《读博》系列文章将陆续推出。欢迎关注十八木】(本文原创,欢迎评论转发。)

能乎

他放弃读博只为和女友尽快结束异地恋,导师:虽然遗憾但是祝福!

很多大学生都说,毕业就是爱情的坟墓。诚然,放眼现在的大学生恋情,大学毕业后真的也就是天各一方,即便是毕业后不会立马分手两个人也会随着距离和彼此的阅历而产生隔阂,最终导致分道扬镳,形同陌路。还有人很坦然的说,大学恋爱嘛!就是在孤独中找一个伴儿啊!毕了业不需要彼此了,那可不就得分手吗?可见有些大学生的恋爱观真的很不靠谱!但是今天咱们说的这一对在外人看来挺可惜的,但是其中的甜蜜应该只有他们自己知道!故事的男主角叫张建库是一名哈尔滨工程大学的硕士研究生。张建库告诉记者,他们老家是山东巨野的,父母都是务农为生,如果不学习不考大学,就只有在家务农或者去城里打工!张建库的导师也告诉记者,在他读研期间,参加了四五项国家级的科研项目,发表了很多篇文章,写了一些专利,同时他也获得了我们学校的优秀毕业生和学校三好学生的荣誉称号。通过三年的努力,他找到了相当于我们国家一个卫星总体(院)的单位。可谓是千里挑一,作为一个老师,我感到有点遗憾,我希望他留在我身边进行科研活动!导师对张建库说,虽然有点遗憾和不舍,但是我还要祝福你!原来张建库在上本科的时候认识了自己的女友,毕业后女友便去了上海工作,于是两人便开始了长达四年的异地恋情。张建库说他不可能再让女朋友等他四年把博士读完,于是研究生毕业之际,恰好自己被上海航天技术研究院选中,可以和女友团聚。导师想让张建库跟着自己读博,但是张建库拒绝了导师的美意,他说他目前最大的愿望就是和女友早日团聚!其实不管在别人眼里如何评价这件事情,小编觉得只要两人真心相爱就好,鱼和熊掌的选择全凭个人的想法与追求!只要自己觉得幸福和满足就好!你说呢?

湖山盟

2所985,2个国内顶尖专业,一个出“假”老师,一个出“假”学生

2020高校教育圈算得上混乱,尤其是下半年以来。非知名学校出事,比如浙江农林大学疑似撰写卖yin日记的女大学生,比如成都大学朋友圈留遗书后溺亡的原党委书记;知名学校也出事,比如因保研需要而在云南支教期间脚踢小学生的东南大学经管学院明星学生;学生出事,比如非要让人“社死”的清华大学“腚姐”和其师弟的恩恩怨怨;老师也出事,比如逼死自己学生后想快速复出的武汉理工大学硕士生导师。其他还有很多,总之,圈里很乱。今天说下一南一北两所名校,都是985、双一流大学,都是在各自学校的王牌专业,都在2020年下半年出事了,一个出了一名假老师,一个出了一名假学生。01 天津大学出了一名假老师天津大学已有百余年历史,原名北洋大学堂,据说自创办之初,就仿照美国的大学模式,全面系统地学习西学。天津大学是名校,在天津与南开大学并称绝代双骄,同列985、双一流之列。要说天津大学那个专业最强,绝大多数人都会说是化工专业。在第四轮学科评估中,天津大学只有一个学科被评估为A+,那就是化学工程与技术,据说这已是该专业连续四次全国学科评估名列A+了,可见其绝对实力。与其相比,清华大学都要差了其一个档次。在这样一所百年名校,这样一个令国人骄傲的王牌专业,竟出了一名“假”老师。这位老师名叫张裕卿,是天津大学化工学院的教授,硕士研究生导师。2020年11月,张裕卿教授被其曾经所带的硕士研究生举报,在这过去的十年里,张教授至少造假了30到40篇硕士毕业论文,还有至少 50 篇学术期刊论文。 他所带的部分学生,虽明知道他造假,却敢怒不敢言,否则就会被打击。举报张教授的这名学生,据说就是因为发现了导师造假行为与其产生矛盾,最终退学。此外,张教授还涉嫌给她女儿通过论文挂名的方式,在其女儿从河北工业大学保研至天津大学化工学院过程中谋取利益。经调查,张裕卿已承认造假行为,天津大学也迅速解除了与他的合同。但这件事情带来的影响还远远没有结束。张裕卿带过的那么多硕士研究生,估计是现在最为揪心的,都在为自己将来的命运担忧。还有一件事,就是张裕卿的女儿,河北工业大学和天津大学最终又会作何处理那?02 中南大学出了一名假学生中南大学当然也是名校,是985、双一流,2000年由原湖南医科大学、长沙铁道学院与中南工业大学合并组建而成,算是并校成功的典范。中南大学冶金工程算是其老牌专业,虽然因其较为偏门,不像其他专业一样有名气,但中南大学冶金专业与北京科技大学在国内算是最顶尖的,也是中南大学的王牌专业。然而就是在这样王牌专业,竟然出了一名“假”学生。近日中南大学研究生院官网通报,有色金属冶金专业一名2010年毕业的博士生,其学历和学位被追回。据媒体披露,这位名叫刘萍的学生,2007年以同等学力申请入读中南大学攻读博士研究生,但其申请报考时提供的大学学历、学位证书均为伪造。也就是说,这位学生凭着一张大学的假文凭,在没实际读过大学、研究生的情况下,用3年时间拿下了中南大学王牌专业的博士双证,着实令现在众多正在读博的学子门汗颜。不过,网上信息披露,刘萍是一家上市公司的董事长,在读博前曾与中南大学有过合作,尚不知道其入读博士、并成功拿到博士双证与此有无关系?同样,刘萍造假也并非中南大学自己发现,而是被人举报。一南一北,2所985、双一流,2个国内顶尖王牌专业,本应是令人仰慕的存在,却先后出了这样的事情,不能不说令人遗憾。原本纯洁的象牙塔,为什么会变成现在这样?更关键的是,这些事情并非由学校自行发现,而是被人举报后才暴露出来的。不知道在不为人知的角落,还会不会有其他的类似的存在?但愿已没有!