软测量概述
软测量的产生 在现代工业过程中,为了实现节能降耗、提高企业效益等,需要对过程性能进行及时监测和控制。及时检测工业过程中的关键质量变量,对于监控工艺状态、实现对工艺过程的有效控制有着重要意义。
然而,在实际工业过程中,仅使用硬件检测装置,难以对一些关键质量变量实现及时获取。例如,在一些高温高压、强酸强碱等极度恶劣的工业现场环境下,传感器受限于自身的材料性能等,无法正常工作;在石油化工等工业环境中使用的成分分析仪器如气相色谱仪等,对待测样本的检测需要较长时间,无法及时反馈质量变量。除了上述限制外,硬件检测装置还会遇到元件老化、精度下降等问题,需要定期校准维护,存在诸多不便。
为了解决这些测量相关的问题,软测量技术应运而生。不同于传统的硬件装置测量方法,是一种间接测量方法。软测量通过采集与关键质量变量联系紧密的易测辅助变量,构建某种数学模型,实现对关键质量变量的预测估计。相较于硬件装置测量方法,软测量由于其间接测量的特点,具备了许多优点,例如快速响应、成本低廉、便于维护、操作安全、方法灵活多样等。基于上述优点,软测量技术大量应用于化工、冶金 ...
TensorFlow
直接参考朋友的文章—
Tensorflow入门
什么是TensorflowTensorflow是机器学习的框架之一
Tensor什么是张量? 概括地说:在计算机范畴下,张量就是具有统一类型的多维数组
创建张量 创建一个张量只需要给出两个内容:值与类型(类型不指定,将使用默认的类型)
0维的张量,就是一个数字,或者称为标量,或称为0秩张量
1234rank_0_tensor = tf.constant(4) # 4就是一个标量,也叫一个0维张量# constant() 会创建一个常量print(rank_0_tensor) # 输出 tf.Tensor(4, shape=(), dtype=int32)
一维数组,就是一维的张量,1秩张量,有一个轴
123rank_1_tensor = tf.constant([2.0, 3.0, 4.0])print(rank_1_tensor) # 输出 tf.Tensor([2. 3. 4.], shape=(3,), dtype=float32)
二维数组,就是二维的张量,2秩张量,有两个轴,高维同理
...
Transformer
Transformer详解
注意力原理详解
Transformer中的Positional Encoding
输入词向量的输入 Transformer输入的是一个序列数据,以我爱你为例:Encoder的inputs embedding后需要给每个word的词向量添加位置编码positional encoding。
这样设置位置的原因是因为相同的词语如果出现的位置不同有时候意思会发生很大的变化,比如:我欠他100w和他欠我100w。Transformer是完全基于self-Attention的,但是self-Attention又不能获取词语位置信息,因此我们在输入时需要给每一个词向量添加位置编码。
positional encoding获取过程: 1.可以通过数据训练学习得到positional encoding,类似于训练学习词向量
2.使用正余弦位置编码。位置编码通过使用不同频率的正弦、余弦函数生成,然后的和对应位置的词向量相加,位置向量维度必须和词向量的维度一致。过程如图:
PE(positional encod ...
生成对抗网络(Generative Adversarial Networks|GAN)
GAN的介绍GAN基本概念 GAN的全称是Generative adversarial network,中文翻译过来就是生成对抗网络。生成对抗网络其实是两个网络的组合:生成网络(Generator)负责生成模拟数据;判别网络Discriminator)负责判断输入的数据是真实的还是生成的。生成网络要不断优化自己生成的数据让判别网络判断不出来,判别网络也要优化自己让自己判断得更准确。二者关系形成对抗,因此叫对抗网络。
GAN的基本架构图
生成器(Generator):通过机器生成数据,最终目的是“骗过”判别器“
判别器(Discrimiator):判断这张图象是真实的还是机器生成的,目的是找出“假数据”
GAN基本原理 通俗的讲,GAN类似一个银行与造假币的犯罪团伙之间的关系,团伙造假币,银行检测是否是假币,这样双方不断进行训练,提升自身的能力,最终两边的实力都得到了极大的提升。
详细内容见
[https://easyai.tech/ai-definition/gan/]:
GAN的优缺点3个优势
能更好建模数据分布(图像更锐利、清 ...
概率论
第二章 随机变量及其分布本章主要掌握概率分布函数与概率密度之间的转换
随机变量定义:随实验结果而变的量X称为随机变量
常见的两类随机变量:离散型、连续型
离散型随机变量及其分布定义:取值可数的随机变量为离散量
三个主要的离散型随机变量0-1分布
X
0
1
P
q
p
p+q=1
二项分布n重贝努利试验:设实验E只有两种可能的结果:A, 非A,P(A)=p,0<p<1,将E独立重复进行n次,则称这一串重复的独立实验为n重贝努利试验。
即:每次实验结果互不影响,在相同条件下重复进行
eg:独立重复抛n次硬币
设A在n重贝努利试验中发生X次,则:
P(X=k)=C_{n}^{k}p_{k}^{k}(1-p)^{n-k}, k=0,1, \ldots, \quad n并称X服从参数为p的二项分布,记 X~ b(n,p)
泊松分布(Poisson分布)若随机变量X的概率分布律为:
P(X=k)=\frac{e^{-\lambda} \lambda^{k}}{k !}, k=0,1,2, \cdots, \lambda>0称X服从参数为λ的泊松分布, ...
循环神经网络RNN
什么是RNN RNN是一类用于处理序列数据的神经网络,时间序列数据是指在不同时间点上收集到的数据,这类数据能够反映某一事物、现象等随时间变化的状态或态度,除了时间序列也有文字序列,这些序列都有一个共同特点——后面的数据跟前面的数据有关系。
无论是卷积神经网络还是人工神经网络,他们的前提假设都是:元素之间相互独立,输入与输出也是独立的,这就意味着各元素之间没有关系,但在我们日常生活中很多元素都是相互连接的,比如语句、股票预测等。因此我们就需要设计出这样一个像人一样拥有记忆能力的网络,它的输出依赖于当前的输入以及之前的记忆。
RNN的网络结构
RNN代替网络结构如图,之前的输入隐藏层中的内容,作为记忆保存在延迟器中,下一次输入的时候除了输入层的内容外还有延迟器中的内容,这样就可以让网络拥有“记忆”。
1-of-N encoding
RNN Example
假设图中网络的weight都是1,所有神经元没有任何偏置,并且所有的激活函数都是线性的,这样我们在之后的计算就会方便很多。
现假设我们的input是序 ...
Logistic回归
Logistic回归线性回归与逻辑回归 线性回归的模型是求出特征向量Y与输入样本矩阵X之间的线性关系系数θ,满足Y = Xθ。此时Y是连续的,所以是回归模型。
如果我们想要Y离散,这时就需要对Y做一次变换,变成g(Y)。令g(Y)在某个实数区间是类别A,在另一个实数区间是类别B,以此类推,得到一个分类模型。
二元逻辑回归模型 如果上述分类的类别只有两种,我们成为二元逻辑回归。对线性回归的结果用函数g进行转换,可以变化为逻辑回归。这个函数g在逻辑回归中我们一般使用sigmoid函数,函数形式如下:
g(z) = 1/(1+e^{-z})sigmoid函数的图像如下:
令g(z)中的z变为:z=xθ,这样就得到二元逻辑回归模型的一般形式:
h_{θ}(x)=1/(1+e^{-xθ}) 其中x为样本输入,h为模型输出,可以理解为某一分类的概率大小。
对于模型输出h(x),如果h(x)>0.5,即xθ>0,则y=1;反之,y=0.y=0.5。
h(x)越小, ...
卷积神经网络CNN的简单概述
卷积卷积的概念 所谓卷积,就是一个函数和另一个函数在某个维度上的加权”叠加“作用。
通俗的讲,卷积就是功能的叠加作用。举例来说,在一根铁丝某处不停弯曲,假设发热函数是f(t),散热函数是g(t),此时此刻的温度就是f(t)跟g(t)的卷积。同理,记忆也是一种卷积的结果,假设认知函数是f(t),代表对已有事物的理解,遗忘函数是g(t),那么人脑中记忆函数h(t)就是f(t)与g(t)的卷积。
CV(Computer Version)中的卷积计算机中的图像 在图像处理中应用卷积操作主要目的是利用特征模板对原始图像进行滤波操作,从而达到提取特征的目的。卷积可以很方便地通过从输入的一小块数据矩阵中学到图像的特征,并能保留像素间的相对空间关系。
卷积核 在卷积神经网络中通过一个方形矩阵(matrix)去扫描整张图像,图像中的所有像素点会被线性变换组合,形成下一层的神经元节点。这个”小方块“便是卷积核。下图为卷积操作实例。
像这样从左到右、从上到下滑动,每次滑动s个像素,s称为“步幅”。以此类推,得到一个特征图 ...
深度学习之keras
keras是什么 Keras是一个用Python编写的高级神经网络API,它能够以TensorFlow,CNTK或者Theano作为后端运行。
keras使用定义模型neural network是什么样的,需要在keras首先定义model是sequential
1model = sequential()
设置隐藏层hidden layer,以及激活函数activation,这里假设使用sigmoid当作激活函数
1model.add(activation('sigmoid'))
模型评估评估模型的好坏
compile编译
1model.compile()
定义一个loss
1loss = ('cateqorical crossentropy') #损失函数
12optimizer #优化器metrics #指标
最佳模型Configuration1model.compile = (loss = 'categorical crossentropy', optimizer = 'adam')
...