首页 > 其他 > 详细

Embedding层

时间:2019-04-04 20:26:07      阅读:265      评论:0      收藏:0      [点我收藏+]

示例解释:

model = Sequential() model.add(Embedding(1000, 64, input_length=10))

# 模型将输入一个大小为 (batch, input_length) 的整数矩阵。

# 输入中最大的整数(即词索引)不应该大于 999 (词汇表大小)

# 现在 model.output_shape == (None, 10, 64),其中 None 是 batch 的维度。

keras.layers.Embedding(input_dim, output_dim, embeddings_initializer=uniform, embeddings_regularizer=None, activity_regularizer=None, embeddings_constraint=None, mask_zero=False, input_length=None)

 示例代码:

from keras.models import Sequential
from keras.layers import Embedding 
model = Sequential()
model.add(Embedding(1000, 64, input_length=10))
# 模型将输入一个大小为 (batch, input_length) 的整数矩阵。
# 输入中最大的整数(即词索引)不应该大于 999 (词汇表大小)
# 现在 model.output_shape == (None, 10, 64),其中 None 是 batch 的维度。

input_array = np.random.randint(1000, size=(32, 10))

model.compile(rmsprop, mse)
output_array = model.predict(input_array)
assert output_array.shape == (32, 10, 64)

 

#输入尺寸input_array.shape (32, 10)

#尺寸为 (batch_size, sequence_length) 的 2D 张量。

#输出尺寸  output_array.shape (32, 10, 64)

#尺寸为 (batch_size, sequence_length, output_dim) 的 3D 张量。

 

Embedding层

原文:https://www.cnblogs.com/ylHe/p/10656841.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!