365天深度学习训练营-第六周:RNN心脏病预测
RNN-心脏病预测
第六周:RNN心脏病预测
- 🍨 本文为🔗365天深度学习训练营 中的学习记录博客
- 🍦 参考文章地址:🔗深度学习100例-循环神经网络(RNN)心脏病预测 | 第46天
- 🍖 作者:K同学啊
经过测试:
1.能够读取并加载本地数据
2.了解循环神经网络(RNN)的构建过程
3.测试集准确率达到0.87
代码流程:
一、前期准备
1.设置GPU
import tensorflow as tf
gpus = tf.config.list_physical_devices("GPU")
if gpus:
gpu0 = gpus[0] #如果有多个GPU,仅使用第0个GPU
tf.config.experimental.set_memory_growth(gpu0, True) #设置GPU显存用量按需使用
tf.config.set_visible_devices([gpu0],"GPU")
gpus
可以通过打印出的来检查是否启用GPU,使用CPU的可以忽略这步
2.导入数据
数据介绍:
● ge:1) 年龄
● sex:2) 性别
● cp:3) 胸痛类型 (4 values)
● trestbps:4) 静息血压
● chol:5) 血清胆甾醇 (mg/dl
● fbs:6) 空腹血糖 > 120 mg/dl
● restecg:7) 静息心电图结果 (值 0,1 ,2)
● thalach:8) 达到的最大心率
● exang:9) 运动诱发的心绞痛
● oldpeak:10) 相对于静止状态,运动引起的ST段压低
● slope:11) 运动峰值 ST 段的斜率
● ca:12) 荧光透视着色的主要血管数量 (0-3)
● thal:13) 0 = 正常;1 = 固定缺陷;2 = 可逆转的缺陷
● target:14) 0 = 心脏病发作的几率较小 1 = 心脏病发作的几率更大
采用pandas进行读取数据:
#导入数据
import pandas as pd
import numpy as np
df = pd.read_csv("C:/Users/sjw/Desktop/data/heart.csv")
df
3.检查数据
# 3检查数据是否有空值
df.isnull().sum()
二、数据预处理
1.划分训练集与测试集
在这里插入代码片
测试集与验证集的关系:
- 验证集并没有参与训练过程梯度下降过程的,狭义上来讲是没有参与模型的参数训练更新的。
- 但是广义上来讲,验证集存在的意义确实参与了一个“人工调参”的过程,我们根据每一个epoch训练之后模型在valid data上的表现来决定是否需要训练进行early stop,或者根据这个过程模型的性能变化来调整模型的超参数,如学习率,batch_size等等。
- 我们也可以认为,验证集也参与了训练,但是并没有使得模型去overfit验证集
# 二,数据集预处理
from sklearn.preprocessing import StandardScaler
from sklearn.model_selection import train_test_split
X=df.iloc[:,:-1]# 逗号前面为行,后面为列,前开后闭。取除最后一列数据
y=df.iloc[:,-1]#取最后一列数据
X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.1,random_state=1)
print(X_train.shape,y_train.shape)
2.数据标准化
# 将每一列特征标准化为标准正太分布,注意,标准化是针对每一列而言的
sc = StandardScaler()
X_train = sc.fit_transform(X_train)
X_test = sc.transform(X_test)
X_train = X_train.reshape(X_train.shape[0], X_train.shape[1], 1)
X_test = X_test.reshape(X_test.shape[0], X_test.shape[1], 1)
三、构建RNN模型
关键参数说明
● units: 正整数,输出空间的维度。
● activation: 要使用的激活函数。 默认:双曲正切(tanh)。 如果传入 None,则不使用激活函数 (即 线性激活:a(x) = x)。
● use_bias: 布尔值,该层是否使用偏置向量。
● kernel_initializer: kernel 权值矩阵的初始化器, 用于输入的线性转换 (详见 initializers)。
● recurrent_initializer: recurrent_kernel 权值矩阵 的初始化器,用于循环层状态的线性转换 (详见 initializers)。
● bias_initializer:偏置向量的初始化器 (详见initializers).
● dropout: 在 0 和 1 之间的浮点数。 单元的丢弃比例,用于输入的线性转换
# 三 构建Rnn模型
import tensorflow
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense,LSTM,SimpleRNN
model = Sequential()
model.add(SimpleRNN(200, input_shape= (13,1), activation='relu'))
model.add(Dense(100, activation='relu'))
model.add(Dense(1, activation='sigmoid'))
model.summary()#打印网络结构如下:
四 编译模型
opt = tf.keras.optimizers.Adam(learning_rate=0.0001)
model.compile(loss='binary_crossentropy',
optimizer=opt,
metrics="accuracy")
五 训练模型
epochs =100
history = model.fit(X_train,y_train,
epochs=epochs,
batch_size = 128,
validation_data=(X_test,y_test),
verbose=1)
……
6.模型评估
import matplotlib.pyplot as plt
acc = history.history['accuracy']
val_acc =history.history['val_accuracy']
loss = history.history['loss']
val_loss =history.history['val_loss']
epochs_range =range(epochs)
plt.figure(figsize=(14,4))
plt.subplot(1,2,1)
plt.plot(epochs_range,acc,label='Training Accuracy')
plt.plot(epochs_range,val_acc,label='Validation Accuracy')
plt.legend(loc='lower right')
plt.title('Training and Validation Accuracy')
plt.subplot(1,2,2)
plt.plot(epochs_range,loss,label='Training Loss')
plt.plot(epochs_range,val_loss,label='Validation Loss')
plt.legend(loc='upper right')
plt.title('Training and Validation Loss')
plt.show()
scores = model.evaluate(X_test, y_test, verbose=0)
print("%s: %.2f%%" % (model.metrics_names[1], scores[1]*100))
更多推荐
所有评论(0)