网站地图 - XML地图 - 设为首页 - 加入收藏
您的当前位置:主页 > 国内 > 正文

现货黄金价格预测

柯律格年度讲座开讲:中国艺术史上的三个跨国瞬间

????


柯律格年度讲座开讲:中国艺术史上的三个跨国瞬间

△ 柯律格

【搜狐文化】9月2日-4日,由OCAT研究中心主办的“2019柯律格年度讲座:中国艺术史上的三个跨国瞬间”在京开讲。

讲座邀请了牛津大学着名艺术史教授柯律格先生,通过三场讲座,聚焦20世纪的前30年,其时现代/传统、西方/东方的二元对立首度被运用到中国艺术中,讲座尝试将这一时期的发展置于一个更大的框架中,关注此时特定的翻译和置换行为,它们让思想和物在全球范围内移动,并让跨国因素为当时全球理解中国艺术的方式贡献了前所未有的影响。每场讲座以一组个体、文本和地点的相遇为起点,检视“世界主义”如何能让我们更深入地理解和欣赏这一关键历史时期的文化。(此处“世界主义”仅指“过去人们超越本土思考和行事的方式”。)讲座主张“世界主义并非从一种文化的单一中心辐射出的一个圈,相反,中心无处不在,边缘更无从谈起”,并将尝试寻找中国现代艺术研究的新路径,以突破这一领域中诸如“影响”之类的概念,用更复杂的方式来理解流动和连接。

第一讲 1902—1903年:谢赫在加尔各答,中村不折在巴黎

di yi jiang 1902 1903 nian: xie he zai jia er ge da, zhong cun bu zhe zai ba li

本讲的起始点之一是5世纪的画论作者谢赫,其“六法”在亚洲以外的首轮探究,尤其是冈仓天心 (1862—1913)于1903年的着作《东方的理想》中对“六法”的首度英译。讲座特别关注冈仓天心成书所处的印度环境,以及同一环境如何促成了英国博物馆典藏员、艺术史家劳伦斯·宾扬(1869—1943)自身对“六法”的理解。起始点之二是日本艺术家中村不折(1866—1943)在巴黎接受的训练,他写作的中国绘画史是最早也是最有影响力的作品之一。这些片段将共同开启一张思想网络,正当“中国艺术”作为一种新的研究对象浮现之时,这些思想也在全球范围内迅速流转。

第二讲 1922—1923年:董其昌在伦敦,杜里舒在北京

时至1920年代早期,已有一批不同语言的文献试图诠释中国艺术的历史。本讲将关注这些发展,以及一些关键人物和思想如何成为经典,又是如何在北京、伦敦和东京等主要中心传播的。与此同时,还将关注某些波及全球,且影响了艺术理解的思潮,尤其是亨利·柏格森和汉斯·杜里舒的思想,关于二人“生机论”观点的论辩和运用真正上升到了国际性的规模。这些观点也被蔡元培(1868—1940)和梁漱溟(1893—1988)等重要学者挪用,形成了思考艺术的新的跨国框架。

第三讲 1927—1928年:潘玉良在罗马,保罗·塞尚在上海

最后一讲将关注1920年代末中国艺术所处的方兴未艾的全球环境,以及艺术家在几个活动地点间的流动,讲座还将重访这一论争四起的年代里最着名的争议之一。这场争议由画家徐悲鸿(1895—1963)激起,他撰写的《惑》一文将被重新置于一战后全球对现代主义的反应这一语境中,从而揭示一位常居南京的艺术家如何全然参与了串联一系列地点的思想流动,此间,真正的 “艺术世界”也在逐渐形成。最后将反思如何建构一种不那么机械化的艺术史,一种能对过去的艺术实践作出更全面考量的艺术史。

柯律格年度讲座开讲:中国艺术史上的三个跨国瞬间


当前文章:http://www.candrmediagroup.com/5sm2ox95/51-66371-29446.html

发布时间:00:35:05


{相关文章}

培训网络就像买彩票?彩票假说对神经网络剪枝研究进展的解释

????机心创意

?&国际男篮北京_蜘蛛资讯网nbsp;??作者:朱子豪

????编辑:杨浩进

????神经网络剪枝技术可以大大降低网络参数,降低存储需求,提高推理性能。目前,该领域的最佳方法通常可以保持较高的精度。因此,对剪枝产生的稀疏结构的研究是一个重要的方向。本课题的思路是对以下两篇论文做深入解读,探索当今最佳的修剪方法。

????深层神经网络在计算机视觉领域取得了巨大的成功,如alexnet、vgg等。这些模型通常有数亿个参数。传统的CPU对如此庞大的网络无能为力。只有计算能力强的gpu才能较快地训练神经网络。例如,在2012年ImageNet竞赛中获胜的LexNet模型使用了一个由5个卷积层和3个完全连接层组成的6000万个参数的网络。即使前K40是用来训练整个模型,它仍然需要两到三天。卷积层的男篮世界杯今晚比赛_蜘蛛资讯网出现解决了全连接层的参数大小问题,但在几个卷积层叠加后,模型的训练代价仍然很大。

????现在有了更强大的gpu,用更多的参数计算更吃了一顿炸鸡_蜘蛛资讯网深层的神经网络是没有问题的。但事实上,并不是每个人手里都有几张牌。对于具有更多层次和节点的神经网络,降低其存储和计算成本变得非常重要。此小米mix是小米的高端手机吗_蜘蛛资讯网外,随着移动设备和可穿戴设备的普及,如何使这些模型在计算能力较弱的移动终端上得到很好的应用,成为一个亟待解决的问题。因此,越来越多的研究者开始研究神经网络模型压缩。

????在现有模型压缩方法的基础上,主要分为四类:参数剪枝与共享、低阶因子分解、传递/压缩卷积滤波器和知识蒸馏[1]。

????本文主要阐述了两篇关于神经网络修剪的论文。第一个“彩票假说:发现稀疏的,可训练的神经网络”由麻省理工学院的团队在ICLR'19上发表。提出了一种抽奖假设,即一个密集的、随机初始化的前馈网络包含一个子网络(“中奖抽奖”)。当独立训练时,这些子网络可以在相似的迭代中达到与原始网络相同的测试精度。这篇论文获得了最佳论文奖。第二个“解构彩票:零、符号和超人”是uber-ai团队对彩票假设的深刻解构。

????论文1:彩票假说:寻找稀疏的、可训练的神经网络

????介绍

????训练机学习模型是数据科学领域中最昂贵的方面之一。几十年来,研究人员基于一个公理化的假设,即训练应该覆盖整个模型,提出了数百种方法来改进机器学习模型的训练过程。最近,麻省理工学院的研究人员发表了一篇论文来挑战这一假设,并提出了一种通过关注子网络来训练神经网络的简单方法。麻省理工学院的研究人员想出了一个很容易记住的名字:彩票票务假说。

????机器学习的训练过程是数据科学家在理论和现实之间所面临的妥协之一。通常,针对具体问题,由于训练成本的限制,无法完全实现理想的神经网络结构。一般来说,神经网络的初始训练需要大量的数据集和昂贵的计算代价,导致了一个庞大的神经网络结构,其中隐藏层之间充满了复杂的连接。这种结构通常需要通过删除一些连接来优化,以调整模型的大小。一个困扰研究人员几十年的问题是,我们是否真的需要这样一个巨大的神经网络结构。显然,如果我们把网络中的每一个神经元中国70周年中的变化_蜘蛛资讯网连接起来,我们就可以解决一个特定的问题,但可能会因为高昂的成本而被迫停止。我们不能开始在更小、更精简的网络上进行培训吗?这就是彩票假说的本质。

????通过与赌博的类比,训练机学习模型相当于通过购买所有可能的彩票来赢得彩票。但如果我们知道中奖彩票是什么样子的,我们能开学第一课直播课_蜘蛛资讯网更明智地选择彩票吗?在机器学习模型中,训练过程中获得的巨大神经网络结构相当于一大袋彩票。在初始训练后,需要对模型进行优化,如剪枝、删除网络中不必要的权值,从而在不牺牲性能的前提下减小模型的规模。这相当于在包里找中奖彩票,扔掉t

注:凡本网注明来源非本站的作品,均转载自其它媒体,并不代表本网赞同其观点和对其真实性负责。
本站致力于帮助文章传播,希望能够建立合作关系。
若有任何不适的联系以下方式我们将会在24小时内删除。联系方式:
Copyright ? 2018 蜘蛛资讯网 版权所有