博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
tf input layer
阅读量:2134 次
发布时间:2019-04-30

本文共 1393 字,大约阅读时间需要 4 分钟。

input layer

作用

设置输入层的shape,定义好第一层的结构

全局参数
import numpy as npimport tensorflow as tffrom tensorflow import kerasrows = 10000columns = 100emb_size = 5words_length = 50000
数据一
train_x1 = np.random.random(size=(rows, columns, emb_size))train_y1 = np.random.randint(low=0, high=2, size=(rows, 1))# train_y1 = np.random.choice([1, 0], size=(rows, 1))model1 = keras.Sequential(name="test1")model1.add(keras.layers.Input(shape=(columns, emb_size), name="my_input_1")) # 这里Input层可要可不要(不加则模型未build),因为构造的数据不用更改shape就可以喂给rnnmodel1.add(keras.layers.SimpleRNN(units=10))model1.add(keras.layers.Dense(1))model1.compile(loss=tf.keras.losses.BinaryCrossentropy(from_logits=True),              optimizer=tf.keras.optimizers.Adam(1e-4),              metrics=['accuracy'])model1.fit(train_x1, train_y1, epochs=10, batch_size=100)
数据二
train_x2 = np.random.random(size=(rows, columns))train_y2 = np.random.randint(low=0, high=2, size=(rows, 1))model2 = keras.Sequential(name="test2")model2.add(keras.layers.Input(shape=(columns,), name="my_input_2"))model2.add(keras.layers.Embedding(input_dim=words_length, output_dim=emb_size))model2.add(keras.layers.SimpleRNN(units=10))model2.add(keras.layers.Dense(1))model2.compile(loss=tf.keras.losses.BinaryCrossentropy(),              optimizer=tf.keras.optimizers.Adam(1e-4),              metrics=['accuracy'])model2.fit(train_x2, train_y2, epochs=10, batch_size=100)
数据三

转载地址:http://flugf.baihongyu.com/

你可能感兴趣的文章
按时间轴简述九大卷积神经网络
查看>>
详解循环神经网络(Recurrent Neural Network)
查看>>
为什么要用交叉验证
查看>>
用学习曲线 learning curve 来判别过拟合问题
查看>>
用验证曲线 validation curve 选择超参数
查看>>
用 Grid Search 对 SVM 进行调参
查看>>
用 Pipeline 将训练集参数重复应用到测试集
查看>>
PCA 的数学原理和可视化效果
查看>>
机器学习中常用评估指标汇总
查看>>
什么是 ROC AUC
查看>>
Bagging 简述
查看>>
详解 Stacking 的 python 实现
查看>>
简述极大似然估计
查看>>
用线性判别分析 LDA 降维
查看>>
用 Doc2Vec 得到文档/段落/句子的向量表达
查看>>
使聊天机器人具有个性
查看>>
使聊天机器人的对话更有营养
查看>>
一个 tflearn 情感分析小例子
查看>>
attention 机制入门
查看>>
手把手用 IntelliJ IDEA 和 SBT 创建 scala 项目
查看>>