本研究探讨了卷积神经网络(CNN)在肿瘤识别领域的应用,特别是利用VGG16模型进行图像分类的性能。
通过对肿瘤图像数据集的预处理、数据分割、模型构建、训练及评估,我们对比了普通CNN与VGG16在肿瘤识别任务上的表现。
视频
卷积神经网络CNN肿瘤图像识别
本文将通过视频讲解,展示如何用卷积神经网络CNN对肿瘤图像识别,并结合3个R语言或python中的卷积神经网络CNN模型实例的代码数据,为读者提供一套完整的实践数据分析流程。
数据集与预处理
本研究在深入探索肿瘤图像分析领域时,充分利用了一个包含大量肿瘤图像的公开数据集。这一数据集不仅为我们提供了丰富的肿瘤图像样本,还确保了研究结果的广泛适用性和可重复性。
在开始模型训练之前,我们对数据集进行了周密的预处理工作。首先,由于肿瘤图像在拍摄时可能存在不同的尺寸和分辨率,我们采用了图像尺寸归一化的方法,将所有图像的尺寸统一调整至一个固定的标准,以确保模型在处理图像时能够保持一致性。
其次,考虑到不同图像的像素值可能存在较大的差异,我们进行了像素值的归一化。这一步骤的目的是将图像的像素值调整到一个相对较小的范围内,如0到1之间,从而避免了因像素值差异过大而对模型训练产生不良影响。
完成预处理工作后,我们按照严格的比例将数据划分为训练集、验证集和测试集。具体来说,我们按照8:1:1的比例进行了划分,即80%的数据用于模型训练,10%的数据用于验证模型在训练过程中的性能,剩下的10%则用于最终测试模型的泛化能力。这种划分方式确保了我们在训练过程中能够充分利用数据,同时也为模型的验证和测试提供了足够的数据支持。
构建模型
本研究采用VGG16作为基准模型进行肿瘤识别。VGG16是一种深度卷积神经网络,由多个卷积层、池化层和全连接层组成。
视频
CNN(卷积神经网络)模型以及R语言实现
视频
LSTM神经网络架构和原理及其在Python中的预测应用
卷积层
卷积层是CNN的核心部分,通过卷积操作提取图像特征。本研究中,卷积层采用了多种大小的卷积核,以捕捉不同尺度的特征。同时,使用ReLU激活函数保证卷积结果都为正值,并通过padding操作避免信息损失。
Convolution (f * g)(x)
o11=conv(input, filter)=i11×h11+i12×h12+i21
xh21+i22×h22=1×1+0×(-1)+1×1+1×(-1)=1
池化层
池化层用于降低特征图的维度,减少计算量,并提取更具代表性的特征。本研究采用了最大池化(Max Pooling)作为池化方式。
全连接层
全连接层位于模型的最后部分,用于将特征图展平并输出分类结果。本研究在全连接层中使用了softmax函数进行多分类任务。
普通CNN和VGG16结果对比
本研究对比了普通CNN与VGG16在肿瘤识别任务上的表现。实验结果表明,VGG16模型在准确率等评估指标上均优于普通CNN模型。此外,通过调整模型的超参数和优化算法,可以进一步提高VGG16模型的性能。
随时关注您喜欢的主题
R语言keras深度学习CNN卷积神经网络分类识别手写数字图像数据(MNIST)
在本文中,我们将学习如何使用keras,用手写数字图像数据集(即MNIST)进行深度学习。本文的目的是为了让大家亲身体验并熟悉培训课程中的神经网络部分。
在这个例子的笔记本中,需要keras R包。由于它有许多需要下载和安装的依赖包,因此需要几分钟的时间才能完成。请耐心等待!
可下载资源
1 软件包的下载和安装
1.1 下载 keras
我们可以通过CRAN调用install.packages(“keras”)来获得。
1.2 加载keras包和所需的tensorflow后端
由于keras只是流行的深度学习框架的一个接口,我们必须安装一个特殊的深度学习后端。
默认和推荐的后端是TensorFlow。通过调用install_keras(),它将为TensorFlow安装所有需要的依赖项。下面的单元格需要一分钟左右的时间来运行。
现在,我们准备好探索深度学习了。
2 MNIST数据集的概述
在深度学习中,比传统的机器学习领域更成功的应用之一是图像识别。我们将在本教程中使用广泛使用的MNIST手写数字图像数据集。关于该数据集的更多信息可以在以下网站找到:https://en.wikipedia.org/wiki/MNIST_database。
2.1 加载MNIST数据集
这个数据集已经包含在keras/tensorflow的安装中,我们可以按照下面的单元格描述简单地加载数据集。加载数据集只需要不到一分钟的时间。
dataset_mnist()
2.2 训练和测试数据集
MNIST数据集的数据结构简单明了,有两块。(1) 训练集:x(即特征):60000x28x28张量,对应于60000张28×28像素的图像,采用灰度表示(即每个28×28矩阵中所有的值都是0到255之间的整数),y(即因变量):一个长度为60000的向量,包含相应的数字,整数值在0到9之间。(2) 测试集:与训练集相同,但只有10000个图像和因变量。数据集的详细结构可以通过下面的str(mnist)看到。
str(mnist)
现在我们准备好训练和测试数据集的特征(x)和因变量(y),我们可以用str()函数检查x\_train和y\_train的结构。
str(x_train)
str(y_train)
2.3 绘制图像
现在让我们使用R将一个选定的28×28矩阵绘制成图像。显示图像的方式是从矩阵表示法中旋转了90度。因此,还需要额外的步骤来重新排列矩阵,以便我们能够使用image()函数来显示它的实际方向。
index_image = 28 ## 改变这个索引以看不同的图像。
output\_matrix <- t(output\_matrix)
这里是上述图像的原始28×28矩阵。
input_matrix
3 卷积神经网络模型
在本节中,我们将展示如何使用卷积神经网络(CNN)对MNIST手写数据集进行分类,将图像分为数字。这与我们之前学习的问题完全相同,但CNN是一种比一般的深度神经网络更好的图像识别深度学习方法。CNN利用了二维图像中相邻像素之间的关系来获得更好的性能。它还避免了为全彩的高分辨率图像生成数千或数百万的特征。
3.1 数据集导入和参数设置
现在让我们再次从头开始导入MNIST数据集,因为我们已经专门为深度神经网络模型做了一些预处理。对于CNN,有不同的预处理步骤。我们还定义了一些以后要使用的参数。
#加载mnist数据的训练和测试数据集
x_train <- train$x
y_train <- train$y
x_test <- test$x
y_test <- test$y
随时关注您喜欢的主题
# 定义一些用于CNN模型的参数
epochs <- 10
# 输入图像维度
img_rows <- 28
3.2 数据预处理
对于一般的CNN方法,MxN图像的输入是一个具有K个特定通道的MxNxK三维数组。例如,一个灰度MxN图像只有一个通道,其输入是MxNx1张量。一个MXN每通道8位的RGB图像有三个通道,有3个MxN数组,数值在0和255之间,所以输入是MxNx3张量。对于我们现在的问题,图像是灰度的,但我们需要通过使用array\_reshape()将二维数组重塑为三维张量来特别定义有一个通道。input\_shape变量将在后面的CNN模型中使用。对于RGB颜色的图像,通道的数量是3,如果输入的图像是RGB格式,我们需要在下面的代码单元中用 “3 “代替 “1”。
3.2.1 在维度中添加通道
x\_train <- array\_reshape(x\_train, c(nrow(x\_train), img\_rows, img\_cols, 1))
x\_test <- array\_reshape(x\_test, c(nrow(x\_test), img\_rows, img\_cols, 1))
input\_shape <- c(img\_rows, img_cols, 1)
这里是重塑图像的结构,第一维是图像索引,第2-4维是一个三维张量,尽管只有一个通道。
str(x_train)
3.2.2 标准化
与DNN模型一样,为了在优化过程中同样考虑数值的稳定性,我们将输入值标准化为0和1之间。
x\_train <- x\_train / 255
x\_test <- x\_test / 255
3.2.3 将因变量转换为分类变量
与DNN模型一样,因变量被转换为分类变量。
#将类向量转换为二进制类矩阵
to_categorical(train, numclass)
3.3 构建一个CNN模型
正如我们所讨论的,CNN模型包含一系列二维卷积层,其中有几个参数。(1)kernal\_size,通常是3×3或5×5;(2)过滤器的数量,对应于输出张量中的通道数量(即第三维);(3)激活函数。对于第一层,还有一个input\_shape参数,即输入图像的尺寸和通道。为了防止过度拟合和加快计算速度,通常在一个或几个二维卷积层之后应用一个池化层。一个典型的池化层将2×2池大小的最大值作为输出的新值,这基本上是将大小减少到一半。除了池化邻居值之外,也可以使用Dropout。
在几个二维卷积层之后,我们还需要将三维张量输出 “扁平化 “为一维张量,然后添加一个或几个密集层,将二维卷积层的输出连接到目标因变量类别。
3.3.1 定义一个CNN模型结构
现在我们定义一个CNN模型,其中有两个带有最大池的二维卷积层,第2层带有附加滤波以防止过拟合。然后将输出扁平化,并使用两个密集层连接到图像的类别。
#定义模型结构
conv_2d(filters = 32,size = c(3,3)) %>%
max\_pooling\_2d(size = c(2, 2)) %>%
conv_2d(filters = 64, size = c(3,3), 'relu') %>%
max_pooling(size = c(2, 2)) %>%
dropout(rate = 0.25) %>%
layer_flatten() %>%
summary(model)
3.3.2 编译模型
与DNN模型类似,我们需要编译所定义的CNN模型。
# 编译模型
loss\_categorical\_crossentropy,
optimizer_adadelta(),
c('accuracy')
训练模型并保存每个训练迭代(epochs)的历史。请注意,由于我们没有使用GPU,它需要几分钟的时间来完成。如果在GPU上运行,训练时间可以大大减少。
3.3.3 训练模型
现在,我们可以用我们处理过的数据来训练模型。每个epochs的历史记录都可以被保存下来以追踪进度。请注意,由于我们没有使用GPU,它需要几分钟的时间来完成。在等待结果时,请耐心等待。如果在GPU上运行,训练时间可以大大减少。
# 训练模型
fit(
x\_train, y\_train,
validation_split = 0.2
)
plot(cnn)
可以在测试数据集上评估训练后的模型准确性,这是很好的。
evaluate(x\_test, y\_test)
3.4 模型预测
对于任何新的图像,在经过同样的预处理后,我们可以用训练好的模型来预测该图像属于哪一个数字。
#
# 模型预测
predict\_classes(x\_test)
3.5 检查误判的图像
现在让我们检查几张被误判的图像,看看是否能比这个简单的CNN模型做得更好。
## 错分类图像的数量
sum(cnn_pred != testy)
x\[cnn_pred != test$y,\]
y\[cnn_pred !=test$y\]
cnn\_pred\[cnn\_pred !=test$y\]
index_image = 6 ## 改变这个索引以看到不同的图像。
image(1:28, output_matrix
R语言实现CNN(卷积神经网络)模型进行回归数据分析
当我们将CNN(卷积神经网络)模型用于训练多维类型的数据(例如图像)时,它们非常有用。我们还可以实现CNN模型进行回归数据分析。我们之前使用Python进行CNN模型回归 ,在本文中,我们在R中实现相同的方法。
我们使用一维卷积函数来应用CNN模型。我们需要Keras R接口才能在R中使用Keras神经网络API。如果开发环境中不可用,则需要先安装。本教程涵盖:
1.参数共享机制(parameters sharing)
因为,对于不同的区域,我们都共享同一个filter,因此就共享这同一组参数。这也是有道理的,通过前面的讲解我们知道,filter是用来检测特征的,那一个特征一般情况下很可能在不止一个地方出现,比如“竖直边界”,就可能在一幅图中多出出现,那么我们共享同一个filter不仅是合理的,而且是应该这么做的。
由此可见,参数共享机制,让我们的网络的参数数量大大地减少。这样,我们可以用较少的参数,训练出更加好的模型,典型的事半功倍,而且可以有效地 避免过拟合。同样,由于filter的参数共享,即使图片进行了一定的平移操作,我们照样可以识别出特征,这叫做 “平移不变性”。因此,模型就更加稳健了。
2.连接的稀疏性(sparsity of connections)
由卷积的操作可知,输出图像中的任何一个单元,只跟输入图像的一部分有关系。而传统神经网络中,由于都是全连接,所以输出的任何一个单元,都要受输入的所有的单元的影响。这样无形中会对图像的识别效果大打折扣。比较,每一个区域都有自己的专属特征,我们不希望它受到其他区域的影响。
- 准备数据
- 定义和拟合模型
- 预测和可视化结果
- 源代码
我们从加载本教程所需的库开始。
library(keras)
library(caret)
准备
数据在本教程中,我们将波士顿住房数据集用作目标回归数据。首先,我们将加载数据集并将其分为训练和测试集。
set.seed(123)
boston = MASS::Boston
indexes = createDataPartition(boston$medv, p = .85, list = F)
train = boston[indexes,]
test = boston[-indexes,]
接下来,我们将训练数据和测试数据的x输入和y输出部分分开,并将它们转换为矩阵类型。
您可能知道,“ medv”是波士顿住房数据集中的y数据输出,它是其中的最后一列。其余列是x输入数据。
检查维度。
dim(xtrain)
[1] 432 13
dim(ytrain)
[1] 432 1
接下来,我们将通过添加另一维度来重新定义x输入数据的形状。
dim(xtrain)
[1] 432 13 1
dim(xtest)
[1] 74 13 1
在这里,我们可以提取keras模型的输入维。
print(in_dim)
[1] 13 1
定义和拟合模型
我们定义Keras模型,添加一维卷积层。输入形状变为上面定义的(13,1)。我们添加Flatten和Dense层,并使用“ Adam”优化器对其进行编译。
model %>% summary()
________________________________________________________________________
Layer (type) Output Shape Param #
========================================================================
conv1d_2 (Conv1D) (None, 12, 64) 192
________________________________________________________________________
flatten_2 (Flatten) (None, 768) 0
________________________________________________________________________
dense_3 (Dense) (None, 32) 24608
________________________________________________________________________
dense_4 (Dense) (None, 1) 33
========================================================================
Total params: 24,833
Trainable params: 24,833
Non-trainable params: 0
________________________________________________________________________
接下来,我们将使用训练数据对模型进行拟合。
print(scores)
loss
24.20518
预测和可视化结果
现在,我们可以使用训练的模型来预测测试数据。
随时关注您喜欢的主题
predict(xtest)
我们将通过RMSE指标检查预测的准确性。
cat("RMSE:", RMSE(ytest, ypred))
RMSE: 4.935908
最后,我们将在图表中可视化结果检查误差。
x_axes = seq(1:length(ypred))
lines(x_axes, ypred, col = "red", type = "l", lwd = 2)
legend("topl
在本教程中,我们简要学习了如何使用R中的keras CNN模型拟合和预测回归数据。
PYTHON TENSORFLOW 2二维卷积神经网络CNN对图像物体识别混淆矩阵评估
本文演示了如何训练一个简单的卷积神经网络 (CNN) 来对 图像进行分类。Convolutional Neural Networks
(ConvNets 或 CNNs)是一类神经网络,已被证明在图像识别和分类等领域非常有效。
可下载资源
与传统的多层感知器架构不同,它使用两个称为 convolution
和 pooling
的操作将图像简化为其基本特征,并使用这些特征来理解和分类图像。
CNN中的卷积架构通常被描述为“特征提取层”。
成功提取显著性(相关)特征是任何机器学习算法性能的关键,传统的机器学习模型依赖于输入特征,这些输入特征可能来自领域专家或基于计算特征提取技术。
CNN能够从原始数据中自动学习到对特定任务最有用的特征。因此,通常将CNN网络layers视为特征提取器。早期层(紧接着输入层之后的层)用于从原始数据
中提取低级特征,而后期层(通常是像多层感知机MLP中的全连接层)则使用这些特恒来预测连续的目标值或者类别标签。
对于某些类型的多层NNs,特别是深度卷积神经网络,通过以分层的方式组合低级特征以形成高级特征来构建所谓的特征层次(feature hierarchy)。
例如:在处理图像的时候,从较早的层中提取低级特征,例如边缘和斑点。这些特征组合在一起形成高级特征。这些高级特征可以形成更加复杂的形状,例如建
筑物、猫和狗等对象的一般轮廓。
CNN重要术语
卷积层
卷积是从输入图像中提取特征的第一层。
卷积通过使用输入数据的小方块学习图像特征来保留像素之间的关系。这是一个数学运算,需要两个输入,例如 image matrix
和 filter
或 kernel
。然后图像矩阵的卷积乘以过滤器矩阵,称为 Feature Map
。
使用不同滤波器对图像进行卷积可以通过应用滤波器来执行边缘检测、模糊和锐化等操作。
激活函数
由于卷积是线性操作,图像远非线性,非线性层通常直接放在卷积层之后,以引入 nonlinearity
激活图。
有几种类型的非线性操作,流行的是:
Sigmoid
: sigmoid 非线性具有数学形式 f(x) = 1 / 1 + exp(-x)。它取一个实数值并将其标准化到 0 到 1 之间的范围内。
Tanh
: Tanh 将实数值压缩到 [-1, 1] 范围内。
ReLU
: 线性单元 (ReLU) 计算函数 ƒ(κ)=max (0,κ)。
Leaky ReL
:Leaky ReLU 函数只不过是 ReLU 函数的改进版本。Leaky ReLU 就是为了解决这个问题而定义的。
Maxout
:Maxout 激活是 ReLU 和leaky ReLU 函数的泛化。
ELU
:Exponential Linear Unit
或简称ELU,也是Rectiufied Linear Unit (ReLU)的一种变体。与leaky relu和parametric ReLU函数不同,ELU不是直线,而是使用对数曲线来定义负值。
过滤器 | 核大小 | 过滤器数量
卷积使用a 从输入图像kernel
中提取某些 特征内容。核是一个矩阵,它 slide
跨越图像并与输入相乘,从而以某种理想的方式增强输出。
在我们深入研究之前,核是一个权重矩阵,它与输入相乘以提取相关特征。核矩阵的维度是卷积的名称。例如,在 中 2D convolutions
,核矩阵是 2D matrix
。
一个普通的卷积层实际上由多个这样的过滤器组成。
步长
在输入矩阵上移动的像素数。当步长为 1 时,我们一次将过滤器移动到 1 个像素。当步长为 2 时,我们一次将过滤器移动到 2 个像素,依此类推。下图显示卷积将以 1 的步长工作。
填充
padding
意味着在数据的边界处提供额外的像素。有时过滤器不能完全适合输入图像,那么我们将使用填充。
我们有两个选择:
- 用零填充图片(零填充),使其适合
- 删除过滤器不适合的图像部分。这称为有效填充,它只保留图像的有效部分。
池化层
A pooling layer
是在卷积层之后添加的新层。具体来说,在对卷积层输出的特征图应用非线性(例如 ReLU)之后;
当图像太大时,池化层部分会减少参数的数量。 Spatial pooling
也称为 subsampling
或 downsampling
减少每个地图的维数但保留重要信息。
空间池可以有不同的类型:
- 最大池化
- 平均池化
Max pooling
从校正后的特征图中取最大元素。计算特征图上每个补丁的平均值称为 average pooling
。特征图调用中每个补丁的所有元素的总和为 sum pooling
.
随时关注您喜欢的主题
扁平化和密集层
Flattening
正在将数据转换为一维数组以将其输入到下一层。我们展平卷积层的输出以创建单个长特征向量。
Fully connected layer
:传统的多层感知器结构。它的输入是一个一维向量,表示前几层的输出。它的输出是附在图像上的不同可能标签的概率列表(例如狗、猫、鸟)。接收概率最高的标签是分类决策。
下载数据和模型构建
该 数据集包含 60,000 张彩色图像 10 classes
,每个类别有 6,000 张图像。数据集分为 50,000 张训练图像和 10,000 张测试图像。这些类是互斥的,它们之间没有重叠。
X\_train = X\_train/255
X\_test = X\_test/255
X\_train.shape, X\_test.shape
验证数据
为了验证数据集看起来是否正确,让我们绘制测试集中的第一张图像并显示图像。
plt.imshow(X_test\[0\])
y_test
构建 CNN 模型
下面的 8 行代码使用一个通用模式定义了卷积基:一堆 Conv2D
、MaxPooling2D
、 Dropout
和Flatten
层 Dense
。
作为输入,a Conv2D
采用形状 (image_height, image_width, color_channels) 的张量。
Maxpool2D()
通过对沿特征轴的每个维度在 (2,2)Downsamples
定义的窗口上取最大值来对输入表示进行 分层 。
Dropout
() 用于在训练阶段的每次更新时将隐藏单元的出边随机设置为 0。
Flatten()
用于将数据转换为一维数组,用于输入到下一层。
Dense()
层是具有 128 个神经元的常规深度连接神经网络层。输出层也是一个密集层,有 10 个神经元用于 10 个类。
使用的激活函数是 softmax
。Softmax 将实数向量转换为分类概率向量。输出向量的元素在 (0, 1) 范围内并且总和为 1。
model.add(Flatten())
model.add(Dense(units = 128, activation='relu'))
model.add(Dense(units=10, activation='softmax'))
model.summary()
编译和训练模型
这是 compiling
模型和 fitting
训练数据。我们将使用 10 epochs
来训练模型。一个时期是对所提供的整个数据的迭代。 是在每个 epoch 结束时validation_data
评估和任何模型指标的 数据。loss
模型不会根据这些数据进行训练。由于指标 = ['sparse_categorical_accuracy']
模型将基于 accuracy
.
history = model.fit(X_train
我们现在将绘制 model accuracy
and model loss
。在模型准确度中,我们将绘制训练准确度和验证准确度,在模型损失中,我们将绘制训练损失和验证损失。
# 绘制训练和验证的准确值
epoch_range = range(1, 11)
plt.plot(epoch\_range, history.history\['sparse\_categorical_accuracy'\])
# 绘制训练和验证的损失值
plt.plot(epoch_range, history.history\['loss'\])
y\_pred = model.predict\_classes(X_test)
confusion_matrix
mat
plot
结论:
在本教程中,我们训练了简单的卷积神经网络 (CNN) 来对 图像进行分类。从学习曲线图中我们观察到,在 3 个 epoch 之后,验证准确度低于训练集准确度,即我们的模型是过拟合,这意味着我们增加了模型的复杂性。还使用混淆矩阵评估模型。观察到该模型对鸟、猫、鹿、狗等标签的预测精度较低。
可下载资源
关于作者
Kaizong Ye是拓端研究室(TRL)的研究员。在此对他对本文所作的贡献表示诚挚感谢,他在上海财经大学完成了统计学专业的硕士学位,专注人工智能领域。擅长Python.Matlab仿真、视觉处理、神经网络、数据分析。
本文借鉴了作者最近为《R语言数据分析挖掘必知必会 》课堂做的准备。
非常感谢您阅读本文,如需帮助请联系我们!