博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
GRU网络生成莎士比亚小说
阅读量:7072 次
发布时间:2019-06-28

本文共 6520 字,大约阅读时间需要 21 分钟。

介绍

本文我们将使用GRU网络来学习莎士比亚小说,模型通过学习可以生成与小说风格相似的文本,如图所示:

图片描述
虽然有些句子并没有实际的意思(目前我们的模型是基于概率,并不是理解语义),但是大多数单词都是有效的,文本结构也与我们训练的文本相似。
由于项目中使用到了Eager ExecutionGRU,所以我们先进行简单介绍:

Eager Execution

TensorflowEager Execution之前想要评估操作必须通过运行计算图"sess.run()"的方式来获取值,而使用Eager Execution可以立即评估操作。Eager Execution基于python流程控制并可以使用python的调试工具进行错误报告。

梯度计算:

先使用tf.GradientTape记录然后再计算梯度,示例如下:

# tfe = tf.contrib.eagerw = tfe.Variable([[1.0]])with tf.GradientTape() as tape:  loss = w * wgrad = tape.gradient(loss, w)

常用函数:

tfe.gradients_function:返回一个函数,该函数会计算其输入函数参数相对其参数的导数。
tfe.value_and_gradients_function:除了返回函数还会返回输入函数的值。

其它:

在训练大数据集的时候,Eager Execution 性能与Graph Execution相当,但在小数据集中Eager Execution会慢一些。

Eager Execution胜在开发和调试的便利性,但是在分布式训练,性能优化,生产部署方面Graph Execution更好。
在未调用tf.enable_eager_execution(开启后不能关闭)的情况下可以使用tfe.py_func启用Eager Execution

GRU

GRULSTM的一种变体,它将LSTM的遗忘门,输入门,输出门改为更新门(LSTM的遗忘门,输入门合并),重置门。参数少,收敛快,不过在数据量较大的时候LSTM的表现更好。下图是GRU网络结构和前向传播计算方法。

图片描述

更新门:控制前一时刻的状态信息被带入到当前状态中的程度。

重置门:控制忽略前一时刻的状态信息,重置门的值越小说明忽略的越多(被写入的信息越少)。

GRU训练:

我们要学习的参数有Wr、Wz、Wh、Wo,其中Wr、Wz、Wh是和ht-1拼接而成,所以需要进行分割:

图片描述

采用反向传播对损失函数的各参数求偏导:

图片描述

中间参数为:

图片描述

算出每个参数的偏导数之后就可以更新参数了。GRU通过门控机制选择性的保留特征,为长时传播提供了保证。正因为门控机制的有效,门卷积目前也很受欢迎,感兴趣的朋友可以阅读相关文献。

数据导入

import tensorflow as tfimport numpy as npimport osimport reimport randomimport time# 开启后不能关闭,只能重新启动新的python会话tf.enable_eager_execution()# 获取数据,你也可以使用其他数据集path_to_file=tf.keras.utils.get_file('shakespeare.txt', 'https://storage.googleapis.com/download.tensorflow.org/data/shakespeare.txt')text=open(path_to_file).read()

文字是不能直接放进模型的需要将其转换为对应的ID表示:

# 去除重复字符并排序unique=sorted(set(text))# enumerate 返回value,index# 文本转id char2idx={value:idx for idx,value in enumerate(unique)}# id转文本idx2char={idx:value for idx,value in enumerate(unique)}

部分参数配置:

# 每次输入的最大文本长度,对应GRU模型的‘time_step’max_length=100vocab_size=len(unique)# 词嵌入维度embedding_dim=256hidden_units=1024BATCH_SIZE=64BUFFER_SIZE=10000

获取ID表示的数据并创建标签

# 标签的定义方式如:# data='ming'# input='min' labels='ing'input_text=[]labels_text=[]# 迭代获取‘max_length’个数据for i in range(0,len(text)-max_length,max_length):    inputs=text[i:i+max_length]    labels=text[i+1:i+1+max_length]        input_text.append([char2idx[i] for i in inputs])    labels_text.append([char2idx[i] for i in labels])

dataset读取数据:

dataset=tf.data.Dataset.from_tensor_slices((input_text,output_text))# drop_remainder:小于batch_size 是否删除,默认不删除dataset=dataset.batch(BATCH_SIZE,drop_remainder=True)

创建模型

我们的模型包含三层:Embedding层,GRU层,全连接层。

class Model(tf.keras.Model):    """    GRU:重置门,更新门 LSTM:遗忘门,输入门,输出门    GRU,参数少,容易收敛,数据量大的时候LSTM表现更好    """    def __init__(self,vocab_size,embedding_dim,units,batch_size):        super(Model, self).__init__()        self.units=units        self.batch_size=batch_size        self.embedding=tf.keras.layers.Embedding(            input_dim=vocab_size,            output_dim=embedding_dim        )        if tf.test.is_gpu_available:            # 使用GPU加速训练            self.gru=tf.keras.layers.CuDNNGRU(                units=self.units,                return_sequences=True,                return_state=True,                recurrent_initializer='glorot_uniform'            )        else:            self.gru=tf.keras.layers.GRU(                units=self.units,                return_sequences=True,                return_state=True,                # 默认激活函数为:hard_sigmoid                recurrent_activation='sigmoid',                recurrent_initializer='glorot_uniform'            )        self.fc=tf.keras.layers.Dense(units=vocab_size)    def __call__(self, x,hidden):        x=self.embedding(x)                # output:[batch_size,max_length,hidden_size]        # states:[batch_size,hidden_size]        output,states=self.gru(x,initial_state=hidden)        # 转换至:(batch_size*max_length,hidden_size)        output=tf.reshape(output,shape=(-1,output.shape[2]))                # output:[batch_size*max_length,vocab_size]        x=self.fc(output)        return x,states

为什么要使用Embedding

Embedding将高纬离散向量转为低纬稠密的连续向量,并且表现出了向量间的相似性。

图片描述

如图所示,one-hot表示只有一个位置是1,其余为0,当文字较多时维度将会非常的大,并且由于one-hot编码后的单词存在独立性,导致不能利用相似词汇进行学习。那么Embedding又是怎么做的呢?

图片描述

使用Embedding的第一步是通过索引对句子进行编码,然后根据索引创建嵌入矩阵,这样我们使用嵌入矩阵替代one-hot编码向量。每个单词向量不再是由一个独立向量代替,而是替换成用于查找嵌入矩阵中向量的索引。

模型训练

# model初始化model=Model(vocab_size,embedding_dim,hidden_units,BATCH_SIZE)optimizer=tf.train.AdamOptimizer(learning_rate=0.001)# 创建损失函数def loss_fn(lables,preds):    # 交叉熵损失函数在值域上边界依然可以保持较高的激活值    return tf.losses.sparse_softmax_cross_entropy(        labels=lables,        logits=preds    )

模型保存:

# 读取checkpoint需要重新定义图结构checkpoint_dir = './training_checkpoints'checkpoint_prefix = os.path.join(checkpoint_dir, "ckpt")checkpoint = tf.train.Checkpoint(optimizer=optimizer,                                 model=model)

开始训练:

EPOCHS = 20for epoch in range(EPOCHS):    start = time.time()        # 每迭代完成一次数据集重置hidden-state    hidden = model.reset_states()        for (batch, (inp, target)) in enumerate(dataset):          # 使用GradientTape记录          with tf.GradientTape() as tape:              predictions, hidden = model(inp, hidden)                            target = tf.reshape(target, (-1,))              loss = loss_function(target, predictions)                        grads = tape.gradient(loss, model.variables)          # 更新          optimizer.apply_gradients(zip(grads, model.variables))          if batch % 100 == 0:              print ('Epoch {} Batch {} Loss {:.4f}'.format(epoch+1,                                                            batch,                                                            loss))    # 每迭代5次数据集保存一次模型数据    if (epoch + 1) % 5 == 0:      checkpoint.save(file_prefix = checkpoint_prefix)

读取保存的checkpoint文件:

checkpoint.restore(tf.train.latest_checkpoint(checkpoint_dir))

预测

要指定输入字符以及希望模型生成的文本长度:

# 需要生成的文字长度num_generate=1000start_string='Q'# 将输入字符转为对应ID表示input_eval=[char2idx[s] for s in start_string]# 扩展一维 batch_sizeinput_eval=tf.expand_dims(input_eval,0)text_generated=''# hidden state shape:(batch_size,rnn units)# hidden 初始化hidden=[tf.zeros((1,hidden_units))]for i in range(num_generate):    precit,hidden=model(input_eval,hidden)    # 注:这里batch_size == 1    # 代码参考,很好理解:    # output = tf.transpose(output,[1,0,2])    # last = tf.gather(output,int(output.get_shape()[0]-1)    predict_id=tf.argmax(predict[-1]).numpy()    # 将前一时刻的输出作为下一时刻的输入,一直到迭代完成    input_eval=tf.expand_dims(predict_id,0)    # 转换成对应字符    text_generated+=idx2char[predict_id]print(start_string+text_generated)

总结

GRU网路作为LSTM网路的变体,参数少收敛快。Eager模式下代码简洁,调试便利虽然比Graph Execution功能逊色,但胜在便利性。RNN现在很多项目都会结合注意力机制使用,效果很好。注意力简单来说就是对输入不再是同等看待,而是根据权重值大小来区别训练。

本文内容部分参考,在此表示感谢。

转载地址:http://jqkml.baihongyu.com/

你可能感兴趣的文章
Linux Tomcat 下的项目局域网中访问不了
查看>>
Git详解之三 Git分支(第二部分)
查看>>
linux 下 ant 安装配置
查看>>
数据库 性能对比
查看>>
Linux下curl命令的使用
查看>>
列出目录下所有文件
查看>>
如何利用HTTP缓存提高网页性能
查看>>
在Silverlight中动态绑定页面报表(PageReport)的数据源
查看>>
Oracle审计与数据库防火墙(AVDF)官方文档
查看>>
Spring Custom Bean with BeanPostProcessor
查看>>
Dark Themed Tab View
查看>>
BobMusic
查看>>
谈谈Ms Chart和TeeChart的优缺点
查看>>
Android FM模块学习之四源码解析(一)
查看>>
人生最重要的三种能力,不是读书能学来的
查看>>
JDK中文方框乱码问题
查看>>
关于技术
查看>>
adb学习2
查看>>
面试之STAR法则详解
查看>>
inno安装
查看>>