中国声谷·2018类脑智能技术大会 暨深度学习技术宣讲会在中科类脑成功举办

2018年12月18日,中国声谷·2018类脑智能技术大会暨深度学习技术宣讲会(以下简称“宣讲会”)在合肥中科类脑智能技术有限公司成功举办。安徽大学计算机学院副院长汤进受邀成为本次宣讲会的主持人。本次宣讲会为公益性活动,吸引了近百位安徽省高校相关专业的学生及人工智能学习者参加。

安徽大学副教授江波、安徽大学计算机学院讲师王文中、安徽大学计算机学院博士王逍分别从“机器学习理论”、“深度学习基础”、“卷积神经网络”、“对抗性生成网络浅析”四个层面,系统地梳理总结了基于开源的深度学习技术体系,并结合企业业务开展需求、科研院所科研需求,分析了技术选型因素、数据样本训练方法,并就软件框架目前存在的问题及技术发展趋势进行了研判。

宣讲会前,安徽大学计算机学院副院长汤进对本次宣讲会的举办初衷做简短说明。汤院长表示,本次宣讲会是一个好的契机,是为那些对人工智能感兴趣的人提供的,一个进一步了解深度学习技术的机会。他认为,在人工智能的时代背景下,深度学习技术的人才培养不可或缺,而类脑智能技术及应用国家工程实验室则为提升我国人工智能领域人才培养的水准,提供了源头力量。

宣讲会伊始,安徽大学副教授江波为参会者带来了《机器学习基础及应用》的主题报告。江波教授指出:“机器学习的本质是什么,什么场合下需要进行怎样的机器学习,这是大家需要重点思考的。”在传统的监督学习中,需要通过大量有标记的训练集进行算法分析。如果在没有经验数据或数据量较少的情况下,则需要判断是否需要进行半监督机器学习的方法,获得更好的训练模型,增加泛化能力。江波教授总结到:“机器学习的思想与现实中的很多道理是非常类似的,而我们未来的计算机发展也将在算法、模型的指导下发生更多的改变。”

安徽大学计算机学院讲师王文中向参会者普及了深度学习基础的相关技术知识,直观解说了卷积神经网络的工作机制。王文中博士通过类比人体神经结构中的突触、神经元,解释了深度学习算法通过训练观测样本去形成神经网络的机理。王文中博士表示:“深度学习并不神秘,它归根究底只是由许多复杂的函数变化而成。”深度学习能够表示神经网络的变换,由多个简单的线性神经元函数可以构造复杂的神经网络。神经网络又可以去表达任意复杂的数据分界面。

随后,安徽大学计算机学院博士王逍围绕对抗性生成网络技术进行了浅析,并举例了目前在对抗性生成网络技术上已有的一些成果:“2014年,Ian Goodfellow和包括Yoshua Bengio在内的蒙特利尔大学的其他研究人员在一篇论文中介绍了GANs(Generative Adversarial Nets)。GANs的潜力是巨大的,因为他们可以学习模仿任何数据分布。也就是说,GANs可以被教导在任何领域内创造与我们相似的世界:图像、音乐、演讲、散文。”与此同时,深度学习技术在视觉、语音、自然语言等应用领域迅速发展,已经开始像水电煤一样赋能于各个行业。深度学习软件框架及相关工具集是人工智能应用落地的重要抓手,是人工智能相关服务及产品的核心。

(王逍博士PPT中展示的GANs“作品”)

本次宣讲会旨在让参会者更多地了解深度学习技术,了解类脑智能技术在产业上的应用。值得一提的是,为了更好地给参会者及众多AI从业者、开发者带来便利,“类脑智能开放平台”也已全面开放,为使用者提供超过60TB的数据量和超过50种不同类别的160个高质量算法,叠加高性能计算集群,提升科研支撑力度,提高AI顶尖人才培养水平,赋能产业升级,降低人工智能创新门槛。 

联系我们

联系我们

0551-62586667
关注微信
微信扫一扫关注我们

微信扫一扫关注我们

返回顶部