一位学术青年眼中的CCF-GAIR,除了干货满满还有哪些细节?|体育火狐首页

  • 时间:
  • 浏览:278
  • 来源:体育火狐
本文摘要:Dataisnotinformation.Informationisnotknowledge.Knowledge.Knowledgedgetwisdom.本文作者都是柏林城市大学叶腾琪同学,本文是参加CCF-GAIR。

Dataisnotinformation.Informationisnotknowledge.Knowledge.Knowledgedgetwisdom.本文作者都是柏林城市大学叶腾琪同学,本文是参加CCF-GAIR。通过他的文章,有必要恢复学术青年眼中的CCF-GAIR大会。

如果你也想在这次大会上投稿的话,请联系我。lizongren@leiphone.com。

最近深圳的天气不好,雨连绵,会议场所还很有力量。深圳喜来登酒店位于地铁出口旁。酒店很漂亮,一切都齐全,有真凶。

会议有三天,各分为a、b、c三个特别场所。(大会现场的安全)(会场内奢侈)第一天的Sessiona探讨了AI的发展前沿,徐扬生院士的主持人主要深耕于机器人领域。第一位嘉宾是中国工程院院士潘云鹤,潘院士作为曾经多次的浙江大学校长,现在是候补中央委员,同时也是AI戚2.0计划的倡议者。

潘院士的演讲主要是围绕AI2.0计划的详细说明。AAAI主席Kambhampati教授是主会场的第二位演说嘉宾,他的演说中提到人工智能是计算机中相当大的主流方向,意味着儿子方向的差异非常大,也可以非常小。例如,实现机器学习方向的学者可能对电路完全不正确,但在机器人领域应该是基础知识。例如,机械学习和数据挖掘的大部分工作是一样的,但各方向的重点不同。

数据挖掘像机械学习一样关注模型的说明性和计算能力,机械学习也像数据挖掘一样关心现实生活中的一些场景来解决问题。因此,并非所有学习计算机科学的人都会建造计算机,与人工智能相关的学者并非所有人工智能领域都会通知。回到Kambhampati教授的演说,笔者以前的实验室印度人很多,但听这个教授的口音很重的英语还很辛苦。

首先,这位教授对AAI会议制作了软件文件,敦促更好的中国学者再次参加AAAI会员(多付钱),多投稿(减少影响力)。AAAI和IJCAI是AI领域最差的两个,投稿领域屈指可数,但在机械学习方面这两个并不普通。

AI领域的机械学习方向的论文往往执着精致的想法和故事,但论文的严密性过高,论文的可靠性不低。回到演说中,教授用AI在社交网络和美国政府经费方面的例子说明了现在AI形式面临危机。但是,知道hypecycle的人可以出现,上升期后是泡沫破裂期。并且,教授人工智能和人工智能和人工智能的发展历史。

他还提到了AI研究的伦理,推荐了臭名昭著的看脸研究。只剩下大部分科学普及的内容对笔者来说干货很少,但教授认为可以从很少的训练样本中自学、机械常识、不完整性和交流的几个研究方向。Deeplearning的有效性是基于大量样品数据,但人类的智能可能不需要太多样品。

最后,教授主要说明他的两组工作,演讲结束了。谭铁牛院士第三同台分享。谷歌scholar表示他的论文总提到次数约为28000,重点关注模型识别的研究方向。

我个人指出谭院士的演讲是这次大会上最不能错过的演讲,原因是干货有总结。教授根据他自己的经验总结,在回答我的同时,从演说中出现,教授依然活跃在科学研究的第一线,偶尔能在细节中找到惊人的东西。

谭院士认为目前模式识别的挑战主要有两个,第一个是不平稳,比如在强光下,现有的很多视觉算法都不会过热。二是课程解释性差,如深度自学,目前学界广泛不能作为黑盒子。

看到这里,结果很多读者都会回答。黑盒子是黑盒子,用完就完了。

黑盒子的主要缺点有两点。第一,如果不能说明可靠性就会变差。为什么现在大家都不喜欢深度自学灌水呢?因为你改变了网络结构,放了论文,主张那个很好,所以大家都不告诉我是知道还是撒谎。

许多代码作者没有公开发表,也没有实验。如果有人知道反复的结果比论文差得多,作者也可以主张推荐技术。

这个道理和我国前几天生物界出现的问题一样,也可以说明为什么生物是不真实的灾区,数学是不真实的。第二,你不能解释,也不能告诉我最坏的改良结构。结果反而变差取决于运气。接着演说,教授从生物灵感的角度开展了记忆问题、多神经元等多个概括。

教授基本上语言珠宝,没有尿点,强烈推荐。SessionB的主题是AI学术的最前沿,杨强教授主持人。杨强教授的入学自学理论备受众多学术青年关注。

转入自学研究的是domain之间的转入。例如,我会用中文,我有中英词典,理论上可以读英语文献。例如,我们通常的场景是3D,但我们的大脑仍然可以解读2D的电影场景。SessionB首次演讲的是CMU的金出武雄教授。

计算机科学方向上没有四所悬挂的学校,江湖人称Top4、MIT、CMU、Stanford、UCBerkeley。金出武雄同时拥有ACM、IEE、AAAI三个Fellow,国内只有周志华教授同时拥有这三个Fellow。

金出有武雄的主要工作是机器人方向的视觉,googlescholar有10万的提到次数,与Kambhampati教授相比,提到次数为8千,杨强教授的提到次数为3万。金出有武雄教授的演讲主要是围绕他们组的工作进行的,详细介绍了自动驾驶、汽车等实际场景下的视觉解决问题。就我个人的感觉而言,他们的工作比现在普遍的计算机视觉,模型的依赖少,但重点是照片处理,用硬件改变光学。

中间有印象深刻的例子。大雨和下雨时的透镜不会相当妨碍车载前头的照片。他们通过在照相机前特别像偏振片一样的透镜,使雨滴在照片中的光学变淡。

另外,演说中有很多冷笑机器人的录像,我不能告诉他。自己去看看吧。

第二次演讲是伦敦大学学院教授王军,他的论文提到次数在4000次左右,他的研究方向是AI应用于社区和团体方向。例如,多个多智能体的强化自学(游戏中不同AI机构的合作)、购物区域的自动计划、服务公司的机器人。他明确提出了与GAN相似的想法,在自学中分解环境。

这个想法还很精致。这些演讲者的演讲内容可以总结为三类:广告(给协会、给研究组、给公司)、分享研究成果和宣传、总结和思考。

下午是张宏江教授,他有很大的背景。他提到的次数是5万5千人,曾多次是微软公司亚洲工程院院长,所以和下午演讲的嘉宾有关系。下午第一次演说不说,做广告。

第二,演讲嘉宾是科技首席科学家孙剑。孙剑有2.4万谷歌scholar提到次数,研究方向是深度自学在计算机视觉上的应用。

他总结了计算机的核心也是古典问题,分类(图像)、检查(区域)、分割(像素)和序列(视频)。分类的意思是识别,推荐例子,照片中的动物是猫还是狗?两张不同的照片中的脸属于同一个人吗?因此,识别是图像水平。检查最有名的例子之一是,大家在手机上拍照的时候,为了显示脸部,也就是寻找物体所在的地区。分割是区分图像上不同物体的轮廓。

视频可以看作是图片的序列。这些任务看起来非常简单,但实质上并非如此。

许多计算机视觉问题最后可以成为这些问题。因为不想篇幅所以不详细说明。孙剑最后提到了他现在计算机视觉方向的难题,大家都可以研究。

SessionC最后一次演讲是360首席科学家颜水成,他的论文提到次数是3.5万。颜水成主要描写了他们在360内的工作研究工作,是众所周知的内容。

然后,他提到了他在工业界深入自学的想法。千言万语的总结与场景研究开发算法(执着精度)相同,最重要的是为超过一定精度的算法寻找好的应用于场景(执着体验)。

第二天笔者参加的是金融专业场所。SessionG是陈邦道主持人,第一位共享嘉宾是牛津大学教授、英国皇家工程院院士、欧洲科学院院士Prof.BillRoscoe,陈邦道是BillRoscoe的学生。

Prof.Roscoe的演讲方向笔者不太熟悉,主要说明了安全性、块链、哈希亲笔签名等,个人感觉和AI的关系不太大。第二位演说嘉宾是香港科技大学教授张晓泉,他的演说中解释了许多Businessintelligence,即金融和AI的融合,推荐的例子主要是quant,即分析。

笔者多次涉及这个方向,读者有兴趣可以自己研究。但是,张教授的一部分观点笔者不太尊敬,在这里和大家讨论一下。张教授说,机器学习是无法预测的。

实质上,机器学习最重要的工作是模型的说明性和模型的预测能力评价,着名的成果是获得图灵奖的PAC。另外,在Machinelearning中,statisticalbasedmachinelearning也是最重要的部分,这部分基本上可以说明。Deeplearning现在的主流观点可能不能严格证明和说明,引起了很多错觉。

个人解读,关于神经网络只有一部分可以说明,其中有名的是Universalapproximationtheorem,关于计算机理论的会议有着名的COLT和AISTATS。接下来的三个演讲是指企业界来的,其中一个是笔者的出身者。只是精华少,在这里总结。

首先,企业实现模块相似。例如,有反欺诈、智能客户、客户图像、智能客户服务等。模块中的技术点也一样。

其次,大数据是最重要的,人工经验的融合(专家系统)也。最后,他们说自己做得很好,AI能顺利解决问题。回应,你觉得怎么样?最后一天一定要去的是机器学习专业场Session的Q,但大部分内容还不是机器学习。下午是CV专场,因为篇幅的原因没有进行,但MSRA的梅涛博士的演说有点强烈推荐,MSRA基本上提高了亚洲计算机视觉的一半江山。

让我们谈谈个人的收入。谈几个直观的方面。1)目前的人工智能技术确实超过了工业拒绝,但人工智能本身和人类的智能仍然相当差。因此,从学术的角度来看,我们深入自学后又回到了新的瓶颈期。

如果你不是想在心里学术,而是想灌水的话,有几个方向。一是理论方向,为什么最重要,我以前也说过。如果深度自学(神经网络)能够在数学上明确分析,我们很可能立即找到深度自学的短板,很可能立即突破瓶颈。

另一个是仿生学的角度,自然是最差的老师。生物学的的角度来看,虽然不能得到数学证明书,但如果效果确实有突破性的进步,例如需要找到总结哪个构造好的勇气,AI的研究也会有很大的提高。

最后是在现在的基础上补充环境影响相当大等显着的差异。这很简单地应用于方向。在工业上,为可靠的算法寻找精致的应用是很重要的。

2)学术界也没有马太效应。也就是说,好的领导人经常带来好的学生,好的学生反而不会增进原来的研究组。

例如,MSRA的几个演讲者、主持人和牛津的一对师徒。这里说的好,也包括人品和学术水平,人品是主要的。在学术水平上,你感兴趣的领域世界领先的小组有几个,大部分学生都没有缘分。

享受好人品的领导人至少可以利用他享受的资源,包括去更好的地方采访,想去工作的时候可以进修,放论文参加会议。这样的老师有学术合作、项目联系、生活中经常采访的共同点。

我周围的很多朋友遇到了人品不好的领导人(这些领导人很多都是海外的),这些领导人知道对学生来说是人生的灾难。关于这方面,今后有时间和读者详细说明。3)这次大会上也有很多嘉宾认真,比如谭铁牛院士。

他的PPT提到规范,而且提到不乱。学术经验少的读者可能不会对此感到困惑。实质上,作为比较好的研究者,必须读很多论文。最近的论文有第一个时间。

因此,高级学术活动的提及并不乱放,谭院士发表的论文质量非常低。第一个解释是他仍然活跃在科学研究的第一线,第二个解释是认真的。我和他的利益几乎没有关系。

许多读者对研究的方法还不太了解。一句话,阅读论文是一个非常基本的指标。最后总结回忆本身。笔者以前在国外发现,他们特别讨厌举办类似的活动,我个人对整个行业的增进非常简单。

对于第二届GAIR大会,(公共编号:)已经接近我的期待,再次感谢。一些水平低,还在科研第一线,真诚地来演讲的大牛知道并不容易。

但是,有些地方可以改进。例如,学术会议一般不会决定茶歇和饮食的便利性。演说的最后和圆桌会议必须得到观众的问题等。

最后,我想说的是,国内已经在很多方面打破了海外。每次我进入国际学术会议,中国人的比例低于中国人口的比例,参加的中国人是指各国来的。中国能否在AI方向慢转弯,构筑中华历史最优秀的兴起?拭目以待吧!原始文章允许禁止发布。下一篇文章发表了注意事项。


本文关键词:体育火狐,体育火狐首页,体育火狐官网,体育火狐app

本文来源:体育火狐-www.repfans.com