首页
关于
论坛
投稿
搜索
机器学习
2019-07-13
1 / 2
COS访谈
COS访谈第34期:刘霁老师
刘霁 / 冯璟烁
/
2017-12-21
刘霁,刘霁,罗切斯特大学计算机科学系、电子与计算机工程系助理教授。刘霁教授毕业于中国科学技术大学,并于亚利桑那州立大学与威斯康星麦迪逊分校取得了硕士与博士学位。他的研究兴趣广泛,包括机器学习、优化及其在计算机视觉、数据挖掘等领域的应用。刘霁教授于罗切斯特大学建立了机器学习和优化研究组。他在2010年 SIGKDD 大会上获得最佳论文提名奖,2015年UAI大会Facebook最优学生论文奖,以……
机器学习
为什么统计学家也应该学学 TensorFlow
邱怡轩
/
2017-08-22
(先啰嗦一句:本文的标题和内容牵涉到 TensorFlow,只是因为它是可用的工具之一,我相信很多其他的框架都可以做到文中我想要实现的功能。我自己并没有工具上的偏好,所以就当是拿 TensorFlow 举一个例子。) 对于学统计做统计的人来说,这可能是最好的时代,也可能是最坏的时代。好的地方我就不多说了,基本上关键词包括“大数据”、“数据科学”等,搜索引擎可以帮你列举出许多激动人心的字眼。为什么会……
新闻动态
COS沙龙第40期(北京)纪要
统计之都
/
2016-12-18
数据科学三原则:可预测性,稳定性和可计算性 嘉宾:郁彬 主办:统计之都、中国人民大学统计学院、中国人民大学统计与大数据研究院 场地:中国人民大学逸夫会议中心第一报告厅 纪要:杨舒仪 李宇轩 简介: 郁彬,加州大学伯克利分校统计系及电气工程与计算机科学系校长教授,加州大学伯克利分校统计系前系主任。她同时是北京大学微软统计与信息技术教育部-微软重点实验室的创办者及联席主任。她与基因组学、神经科学、医学……
COS访谈
Breiman访谈实录
Leo Breiman / Richard Olshen
/
2016-12-02
COS编辑部按:本文是一篇Richard Olshen对Leo Breiman的采访稿(原文发表在Statistical Science)。翻译工作已经得到作者授权。翻译: 张晔、成慧敏、李宇轩。审校:高涛、侯澄钧、丁鹏、魏太云。此外,郑重感谢施涛、丁鹏、郁彬老师为文章的翻译指导和版权沟通提供的帮助。 […] 1928年1月28日,Leo Breiman生于纽约。5年后,他们家搬到了……
推荐文章
张志华教授:机器学习——统计与计算之恋
张志华
/
2016-06-23
编辑部按:本文是从张志华老师在第九届中国R语言会议和上海交通大学的两次讲座中整理出来的,点击此处观看幻灯片。张志华老师是上海交通大学计算机科学与工程系教授,上海交通大学数据科学研究中心兼职教授,计算机科学与技术和统计学双学科的博士生指导导师。在加入上海交通大学之前,是浙江大学计算机学院教授和浙江大学统计科学中心兼职教授。张老师主要从事人工智能、机器学习与应用统计学领域的教学与研究,迄今在国际重要学……
机器学习
COS每周精选:机器学习
冯凌秉 / 王威廉 / 王小宁
/
2016-05-01
本期投稿:冯凌秉 王威廉 王小宁 […] 非平衡样本的分类问题是机器学习的经典问题之一,困扰着不少童鞋。这篇博文提供在R中解决该问题的实用指南。 Github上比较受欢迎的深度学习项目(Top Deep Learning Projects),按照获得星星个数的排名,包括一些教程项目等。 学习完这个,基本上就可以闯荡天涯啦! 机器学习顶级会议ICML2016论文赏析:deep……
COS访谈
COS访谈第19期:张志华教授
张志华 / 常象宇
/
2015-09-29
【COS编辑部按】 受访者:张志华 采访者:常象宇 文字整理:王莉晶 朱雪宁 张志华, 博士,上海交通大学计算机科学与工程系教授,上海交通大学数据科学研究中心兼职教授,计算机科学与技术和统计学双学科的博士生指导导师。在加入上海交通大学之前,是浙江大学计算机学院教授和浙江大学统计科学中心兼职教授。主要从事人工智能、机器学习与应用统计学领域的教学与研究。迄今在国际重要学术期刊和重要的计算机学科会议上发……
统计模型
模型选择的一些基本思想和方法
高涛
/
2015-08-31
有监督学习是日常使用最多的建模范式,它有许多更具体的名字,比如预测模型、回归模型、分类模型或者分类器。这些名字或来源统计,或来源于机器学习。关于统计学习与机器学习的区别已经有不少讨论,不少人认为机器学习侧重于目标预测,而统计学习侧重于机制理解和建模。个人更加直观的理解是,统计学习侧重于从概率分布来描述数据生成机制,除了预测之外,还关心结果(参数假设、误差分布假设)的检验,而机器学习侧重于从函数拟合……
COS访谈
COS访谈第18期:陈天奇
陈天奇 / 何通
/
2015-06-28
【COS编辑部按】受访者:陈天奇 采访者:何通 简介:陈天奇,华盛顿大学计算机系博士生,研究方向为大规模机器学习。他曾获得KDD CUP 2012 Track 1第一名,并开发了SVDFeature,XGBoost,cxxnet等著名机器学习工具,是Distributed (Deep) Machine Learning Common的发起人之一。 何:你的本科在上海交大的ACM班就读,是怎么开始做……
推荐文章
从统计学角度来看深度学习(3):记忆和核方法
Shakir Mohamed
/
2015-06-25
原文链接:http://blog.shakirm.com/2015/04/a-statistical-view-of-deep-learning-iii-memory-and-kernels/ 作者:Shakir Mohamed 连接机器学习的回归方法 人们通过对以往的经验或者数据的回忆来推断未来的事物,这样的过程可以用一个经常出现在最近文献中的词语——记忆来概括。机器学习模型都是由这样的‘记忆’……
推荐文章
“支持向量机系列”的番外篇二: Kernel II
张驰原
/
2014-05-08
原文链接请点击这里 在之前我们介绍了如何用 Kernel 方法来将线性 SVM 进行推广以使其能够处理非线性的情况,那里用到的方法就是通过一个非线性映射 $\phi(\cdot)$将原始数据进行映射,使得原来的非线性问题在映射之后的空间中变成线性的问题。然后我们利用核函数来简化计算,使得这样的方法在实际中变得可行。不过,从线性到非线性的推广我们并没有把 SVM 的式子从头推导一遍,而只是直接把最终……
推荐文章
“支持向量机系列”的番外篇一: Duality
张驰原
/
2014-03-19
原文链接请点击这里 在之前关于support vector的推导中,我们提到了dual,这里再来补充一点相关的知识。这套理论不仅适用于 SVM 的优化问题,而是对于所有带约束的优化问题都适用的,是优化理论中的一个重要部分。简单来说,对于任意一个带约束的优化都可以写成这样的形式: $$ \begin{aligned} \min&f_0(x) \\ s.t. &f_i(x)\leq……
««
«
1
2
»
»»