an 出现了一个图层叫layer object ordering 运行出错怎么解决?

【万字长文】别再报班了,一篇文章带你入门Python

最近有许多小伙伴后台联系我,说目前想要学习Python,但是没有一份很好的资料入门。一方面的确现在市面上Python的资料过多,导致新手会不知如何选择,另一个问题很多资料内容也很杂,从1+1到深度学习都包括,纯粹关注Python本身语法的优质教材并不太多。

刚好我最近看到一份不错的英文Python入门资料,我将它做了一些整理和翻译写下了本文。这份资料非常纯粹,只有Python的基础语法,专门针对想要学习Python的小白。

Python中用#表示单行注释,#之后的同行的内容都会被注释掉。

使用三个连续的双引号表示多行注释,两个多行注释标识之间内容会被视作是注释。

""" 与之对应的是多行注释

用三个双引号表示,这两段双引号当中的内容都会被视作是注释

Python当中的数字定义和其他语言一样:

我们分别使用+, -, *, /表示加减乘除四则运算符。

但问题是Python是一个弱类型的语言,如果我们在一个函数当中得到两个变量,是无法直接判断它们的类型的。这就导致了同样的计算符可能会得到不同的结果,这非常蛋疼。以至于程序员在运算除法的时候,往往都需要手工加上类型转化符,将被除数转成浮点数。

在Python3当中拨乱反正,修正了这个问题,即使是两个整数相除,并且可以整除的情况下,得到的结果也一定是浮点数。

如果我们想要得到整数,我们可以这么操作:

除了取整除操作之外还有取余数操作,数学上称为取模,Python中用%表示。

Python中支持乘方运算,我们可以不用调用额外的函数,而使用**符号来完成:

当运算比较复杂的时候,我们可以用括号来强制改变运算顺序。

关于list的判断,我们常用的判断有两种,一种是刚才介绍的==,还有一种是is。我们有时候也会简单实用is来判断,那么这两者有什么区别呢?我们来看下面的例子:

显然,住在同一个地址的人一定都叫张三,但是住在不同地址的两个人也可以都叫张三,也可以叫不同的名字。所以如果a is b,那么a == b一定成立,反之则不然。

Python当中对字符串的限制比较松,双引号和单引号都可以表示字符串,看个人喜好使用单引号或者是双引号。我个人比较喜欢单引号,因为写起来方便。

字符串也支持+操作,表示两个字符串相连。除此之外,我们把两个字符串写在一起,即使没有+,Python也会为我们拼接:

我们可以在字符串前面加上f表示格式操作,并且在格式操作当中也支持运算,比如可以嵌套上len函数等。不过要注意,只有Python3.6以上的版本支持f操作。

print会输出一个字符串,如果传入的不是字符串会自动调用__str__方法转成字符串进行输出。默认输出会自动换行,如果想要以不同的字符结尾代替换行,可以传入end参数:

Python中声明对象不需要带上类型,直接赋值即可,Python会自动关联类型,如果我们使用之前没有声明过的变量则会出发NameError异常。

Python中用[]表示空的list,我们也可以直接在其中填充元素进行初始化:

list可以通过[]加上下标访问指定位置的元素,如果是负数,则表示倒序访问。-1表示最后一个元素,-2表示倒数第二个,以此类推。如果访问的元素超过数组长度,则会出发IndexError的错误。

list支持切片操作,所谓的切片则是从原list当中拷贝出指定的一段。我们用start: end的格式来获取切片,注意,这是一个左闭右开区间。如果留空表示全部获取,我们也可以额外再加入一个参数表示步长,比如[1:5:2]表示从1号位置开始,步长为2获取元素。得到的结果为[1, 3]。如果步长设置成-1则代表反向遍历。

如果我们要指定一段区间倒序,则前面的start和end也需要反过来,例如我想要获取[3: 6]区间的倒序,应该写成[6:3:-1]。

只写一个:,表示全部拷贝,如果用is判断拷贝前后的list会得到False。可以使用del删除指定位置的元素,或者可以使用remove方法。

补充一点,tuple本身虽然是不可变的,但是tuple当中的可变元素是可以改变的。比如我们有这样一个tuple:

我们虽然不能往a当中添加或者删除元素,但是a当中含有一个list,我们可以改变这个list类型的元素,这并不会触发tuple的异常:

我们可以用in来循环迭代一个list当中的内容,这也是Python当中基本的循环方式。

如果我们要循环一个范围,可以使用range。range加上一个参数表示从0开始的序列,比如range(10),表示[0, 10)区间内的所有整数:

如果我们传入两个参数,则代表迭代区间的首尾。

如果我们传入第三个元素,表示每次循环变量自增的步长。

如果使用enumerate函数,可以同时迭代一个list的下标和元素:

while循环和C++类似,当条件为True时执行,为false时退出。并且判断条件不需要加上括号:

Python当中使用try和except捕获异常,我们可以在except后面限制异常的类型。如果有多个类型可以写多个except,还可以使用else语句表示其他所有的类型。finally语句内的语法无论是否会触发异常都必定执行:

在Python当中我们经常会使用资源,最常见的就是open打开一个文件。我们打开了文件句柄就一定要关闭,但是如果我们手动来编码,经常会忘记执行close操作。并且如果文件异常,还会触发异常。这个时候我们可以使用with语句来代替这部分处理,使用with会自动在with块执行结束或者是触发异常时关闭打开的资源。

以下是with的几种用法和功能:

凡是可以使用in语句来迭代的对象都叫做可迭代对象,它和迭代器不是一个含义。这里只有可迭代对象的介绍,想要了解迭代器的具体内容,请移步传送门:

Python——五分钟带你弄懂迭代器与生成器,夯实代码能力

当我们调用dict当中的keys方法的时候,返回的结果就是一个可迭代对象。

我们不能使用下标来访问可迭代对象,但我们可以用iter将它转化成迭代器,使用next关键字来获取下一个元素。也可以将它转化成list类型,变成一个list。

传入参数的时候我们也可以使用*来解压list或者是dict:

函数内部定义的变量即使和全局变量重名,也不会覆盖全局变量的值。想要在函数内部使用全局变量,需要加上global关键字,表示这是一个全局变量:

这么做的原因是如果我们当前的路径下也有一个叫做math的Python文件,那么会覆盖系统自带的math的模块。这是尤其需要注意的,不小心会导致很多奇怪的bug。

我们来看一个完整的类,相关的介绍都在注释当中

以上内容的详细介绍之前也有过相关文章,可以查看:

下面我们来看看Python当中类的使用:

这里解释一下,实例和对象可以理解成一个概念,实例的英文是instance,对象的英文是object。都是指类经过实例化之后得到的对象。

继承可以让子类继承父类的变量以及方法,并且我们还可以在子类当中指定一些属于自己的特性,并且还可以重写父类的一些方法。一般我们会将不同的类放在不同的文件当中,使用import引入,一样可以实现继承。

我们再创建一个蝙蝠侠的类,同时继承Superhero和Bat:

我们可以通过yield关键字创建一个生成器,每次我们调用的时候执行到yield关键字处则停止。下次再次调用则还是从yield处开始往下执行:

除了yield之外,我们还可以使用()小括号来生成一个生成器:

五分钟带你弄懂迭代器与生成器,夯实代码能力

我们引入functools当中的wraps之后,可以创建一个装饰器。装饰器可以在不修改函数内部代码的前提下,在外面包装一层其他的逻辑:

一文搞定Python装饰器,看完面试不再慌

不知道有多少小伙伴可以看到结束,原作者的确非常厉害,把Python的基本操作基本上都囊括在里面了。如果都能读懂并且理解的话,那么Python这门语言就算是入门了。

原作者写的是一个Python文件,所有的内容都在Python的注释当中。我在它的基础上做了修补和额外的描述。如果想要获得原文,可以点击查看原文,或者是在公众号内回复learnpython获取。

如果你之前就有其他语言的语言基础,我想本文读完应该不用30分钟。当然在30分钟内学会一门语言是不可能的,也不是我所提倡的。但至少通过本文我们可以做到熟悉Python的语法,知道大概有哪些操作,剩下的就要我们亲自去写代码的时候去体会和运用了。

根据我的经验,在学习一门新语言的前期,不停地查阅资料是免不了的。希望本文可以作为你在使用Python时候的查阅文档。

今天的文章就到这里,原创不易,需要你的一个关注,你的举手之劳对我来说很重要。

本文始发于个人公众号:TechFlow,原创不易,求个关注

}

  • 核心层:Kubernetes最核心的功能,对外提供API构建高层的应用,最内提供插件式应用执行环境
  • 应用层:部署(无状态应用、有状态应用、批处理任务、集群应用等)和路由(服务发现、DNS解析等)
  • 管理层:系统度量(如基础设施、容器和网络的度量),自动化(如自动扩展、动态Provision等)以及策略管理(RBAC、Quota、PSP、NetworkPolicy等)
  • 接口层:kubectl命令行工具、客户端SDK以及集群联邦
  • 生态系统:在接口层之上的庞大容器集群管理调度的生态系统,可以划分为两个范畴

}

微软亚洲研究院来谈一谈如何“进阶”~

随着图神经网络在各领域的深入应用,如何减小图神经网络对大量标签数据的依赖成为了一个至关重要的问题。

在图像和自然语言处理领域,预训练技术是一个有效解决该问题的关键技术,因此,如何对图神经网络进行有效的预训练是一个非常有价值的研究问题。

基于此,本文总结了6篇尝试解决“图神经网络有效的预训练”难题的论文。其中,探索的角度包括:

1. 如何同时学习到有效的局部和全局信息;

2. 如何学习到通用的、可迁移的拓扑结构信息;

3. 如何用概率生成模型对图分布进行建模;

4. 图神经网络在预训练的过程中怎样学习微调;

5. 如何增强图神经网络层的聚合能力;

6. 如何将目标任务以及监督信息融入自监督任务中。

上发表的工作。本文提出了一种基于自监督方法的图神经网络模型的预训练策略,这种策略的关键在于能够同时在单个节点和整张图的角度对图神经网络进行预训练,即能够让预训练的图神经网络同时学习到有效的局部和全局信息。该策略包含节点级别的预训练和图级别的预训练。节点级别的预训练包括上下文预测任务和特征预测任务。如图1所示,在上下文预测任务中,任务目标是使得处于相似上下文结构的节点被图神经网络映射到相近的空间;而在特征预测任务中,任务目标是使图神经网络模型能够通过局部结构预测点或者边的特征。图级别的预训练包括一系列的监督任务,例如,训练图神经网络模型预测化学分子的已知特性或者蛋白质的已知功能。

图1:节点级别的预训练方法

本工作采用了 GIN 模型作为预训练的图神经网络模型,实验结果表明,经过该策略预训练的 GIN 模型,相较于未预训练的 GIN 模型,在生物领域的图分类任务上的 ROC-AUC 表现能提高9.5%。同时,本工作还构造并共享了两个新的预训练图数据集,分别是一个包括200万张图的化学类数据集和一个包括39.5万张图的生物类数据集。

本论文是由清华大学唐杰教授的团队在 KDD 2020 上发表的工作。本文提出了一个基于对比学习的图神经网络模型预训练框架 GCC,该框架的关键思想在于通过对比学习的策略对图神经网络模型进行预训练,使其能学习到通用的、可迁移的拓扑结构信息。具体来说,GCC 会定义一个节点的r阶领居网络中随机采样的子图为一个样本,同一个节点会对应多个随机采样的子图样本,这些属于同一个节点的子图样本中的任意两个样本会构成对比学习中的一个正例,而属于不同节点的子图样本中的任意两个样本则构成对比学习中的一个负例,GCC 的预训练任务是使目标图神经网络能够区分正负例。如图2所示,同样为红色节点对应的两个子图构成一个正例,而由蓝色节点产生的子图和红色节点产生的子图与红色节点产生的子图构成了一个负例,此处的训练目标是使正例中的子图的图表达更接近,而使负例中的子图的图表达更不同。

图2:GCC 对比学习示例

该工作在多个图下游任务中应用了 GCC 框架,实验结果展示经过 GCC 框架预训练的图神经网络模型,相较直接在目标任务上训练的图神经网络模型,能取得相似或者更好的表现。

本论文是由加州大学洛杉矶分校孙艺洲教授的团队在 KDD 2020 发表的工作。受 BERT 启发,本文提出了一个基于生成任务的图神经网络模型预训练框架 GPT-GNN。GPT-GNN 提出用概率生成模型对图分布进行建模,其主要思想是最大化输入属性图的生成概率。GPT-GNN 的训练任务包含属性生成任务和结构生成任务。具体来说,GPT-GNN 首先会对图中的节点进行随机排序,再遮掩部分节点的属性特征和边结构,然后按照顺序依次生成遮掩节点的属性特征和边结构。如图3所示,GPT-GNN 先对输入图数据进行预处理,即确定节点顺序和遮掩部分节点,然后再根据现有的图信息依次生成遮掩节点的属性特征和边结构,直至完成整张图的生成。

图3:GPT-GNN 的属性图生成过程示例

GPT-GNN 关注的是相同领域图数据的预训练问题——其对应的预训练数据和下游目标任务数据需要来自于同一个领域。作者在亿级图数据上对 GPT-GNN 算法进行了实验和测试,实验结果显示经过 GPT-GNN 框架预训练的图神经网络模型,相较于未经过预训练的模型,在多个下游任务上能得到高达9.1% 的效果提升。

本论文是由北京邮电大学和腾讯等多家机构联名在 AAAI 2021 上发表的工作。文章指出,现有的图神经网络预训练工作基本上都遵从一个两步范式,也就是先在大量无监督数据上对模型进行预训练,再在目标下游数据上对模型进行微调。

本文作者认为,这样的预训练范式存在一个问题,即预训练和微调过程的优化目标不一致。针对这个问题,为了减小预训练和微调过程的优化目标不一致性,本文提出了一个基于元学习思想的自监督预训练策略 L2P-GNN。L2P-GNN 的关键思想在于在预训练的过程中学习如何微调,以使得预训练后的模型能够针对目标下游任务被快速、有效地微调。为了同时捕捉图中的局部信息和全局信息,L2P-GNN 还采用了节点级别和图级别的双适应机制。

如图4所示,给定预训练图数据集,L2P-GNN 会先在图数据集上创建数个节点级别的子任务和图级别的任务,同时,每个训练任务的数据集都会被划分为支撑集和测试集。在预训练过程中,元模型在子任务支撑集和图任务支撑集上进行双适应调整,在子任务测试集和图任务测试集上进行梯度回传。作者在一个公共蛋白质数据集和一个新型书目图数据上对 L2P-GNN 进行了系统的实验,实验结果证明 L2P-GNN 可以学习到有效的、可迁移的先验知识,以辅助下游任务的解决。

本论文是由中国人民大学陈红教授的团队发表在 WSDM 2020 上发表的工作。文章针对推荐系统应用场景中冷启动用户和物品的表示不准确的问题,提出了一种图神经网络模型预训练策略。该策略首先通过遮掩部分用户或物品节点的邻居节点以模拟真实场景下的冷启动情况,然后通过根据未遮掩节点对目标节点的表示进行重建以训练图神经网络模型。此处的表示重建任务就是预训练任务,目标节点的目标表示可以通过任意经典推荐算法得到。

同时,为了进一步减小图神经网络信息聚合过程中冷启动邻居节点的影响,本文提出了一个基于自注意力机制的元聚合器和一个自适应邻居节点选择器,以增强图神经网络层的聚合能力。文章作者在三个公开推荐数据集上对提出的预训练策略进行了测试,实验结果证明了预训练策略在冷启动推荐系统应用场景下的有效性。

本论文是由密歇根州立大学汤继良教授的团队在2020年发表的工作。文章针对图上的自监督任务进行了深入和广泛地探索和研究,旨在加深对图数据上自监督学习的认识并获得新的启发。文章还研究了在节点分类任务场景下,多种自监督学习方法对模型分类性能的影响。

本文首先探究了多种基本自监督学习任务对模型性能的影响,将基本自监督学习任务分为了基于局部结构和全局结构信息的结构信息预测任务,以及基于节点或者边的特性的预测任务,并通过大量实验研究了包括节点性质预测和遮掩边预测在内的六项基本自监督学习任务,同时还探究了“联合训练”和“分步训练”对模型性能的影响。通过大量的实验结果,文章指出:“联合训练”方式在大部分情况下能获得比“分步训练”更好的性能提升;基于结构信息和节点或者边特性信息的自监督任务都有让模型性能提升的潜能,而全局结构信息相较于局部结构信息,对模型性能提升的作用更为明显;图神经网络模型能够天然地学习到一些结构信息,因此,基于一些图神经网络不易学习到的结构信息的自监督学习任务能够对模型性能的提升有更大的作用。

基于这些观察与分析,文章提出了一个自监督学习任务设计的新方向——将目标任务以及监督信息融入自监督任务的设计。具体来说,本文提出了四种新的基于目标任务标签信息的高级自监督学习任务,并通过大量实验证明了这类自监督学习任务的有效性,为自监督学习任务的设计思路提供了宝贵的借鉴与启发。

}

我要回帖

更多关于 ae错误ct generic关不掉 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信