当前位置: 首页 > news >正文

现在企业需要建设网站吗wordpress创建wiki页面

现在企业需要建设网站吗,wordpress创建wiki页面,长沙网络营销首选智投未来,wordpress数据库位置深度学习#xff1a;到底怎么理解embedding 注意到embedding这个词#xff0c;很大可能是在进行时间序列上的处理过程中遇到的#xff0c;遇到的时间序列模型中#xff0c;很大部分需要用到embedding过程#xff0c;同时在看相关的程序代码的时候看到模型的结构设计中设计…深度学习到底怎么理解embedding 注意到embedding这个词很大可能是在进行时间序列上的处理过程中遇到的遇到的时间序列模型中很大部分需要用到embedding过程同时在看相关的程序代码的时候看到模型的结构设计中设计到embedding层。那么到底什么是embedding还有embedding完成了什么操作这里记录一下最直观的解释。 1. 何为Embeddings–何为嵌入 Embeddings: 中文名词嵌入 OpenAI的文本嵌入衡量文本字符串的相关性。 说的简单一点就是一种编码只不过这个编码的过程与one-hot这种简单的编码表示方式不同这个embedding是有一个字典同时通过这种嵌入方式所表示的数据可以含有数据之间的相似性信息相似性可以通过计算相似度。如下面的余弦相似度计算方式。 通俗一点解释嵌入的过程现在有一本字典字典规定了每一个单词可以通过一个长度为10的向量进行表示。那么 现在有一句话I like cats,那么用字典每一个词都可以用长度为10的向量表示则这个最终的表示维度大小为[3,10]现在你有另一句话I love cats,这句话用这个字典可以通过维度[3,10]的数据表示。 如果采用one-hot 编码的方式表示假设是有十个不同的单词那么I like cats 这句话需要同样需要[3,10],但是其中只有三个数字是1其他全是0。在NLP处理中并不是一个好的编码方式。 总的来说嵌入具有以下优势可以完成语义表示完成降维学习语义关系提高计算效率。最重要一点这个嵌入是从数据中学习得到的。 这是有一本字典的前提如果要是没有就相当于在自己的网络中Embedding层然后通过训练得到Embedding的权重完成嵌入过程。 余弦相似度 s i m i l a r i t y cos ⁡ ( θ ) A ⋅ B ∥ A ∥ ∥ B ∥ ∑ i 1 n A i × B i ∑ i 1 n ( A i ) 2 × ∑ i 1 n ( B i ) 2 \mathrm{similarity}\cos(\theta)\frac{A\cdot B}{\|A\|\|B\|}\frac{\sum_{i1}^nA_i\times B_i}{\sqrt{\sum_{i1}^n{(A_i)^2}}\times\sqrt{\sum_{i1}^n{(B_i)^2}}} similaritycos(θ)∥A∥∥B∥A⋅B​∑i1n​(Ai​)2 ​×∑i1n​(Bi​)2 ​∑i1n​Ai​×Bi​​ 其中 A ⋅ B \mathbf{A}\cdot\mathbf{B} A⋅B表示点积 ∥ A ∥ \|\mathbf{A}\| ∥A∥表示范数,结果越靠近1越相近。 import numpy as np from numpy.linalg import normdef cosine_similarity(a, b):dot_product np.dot(a, b)norm_a norm(a)norm_b norm(b)similarity dot_product / (norm_a * norm_b)return similarity# 示例向量 vector_a np.array([1, 2, 3]) vector_b np.array([4, 5, 6])# 计算余弦相似度 similarity cosine_similarity(vector_a, vector_b)print(fCosine Similarity: {similarity})下面用代码说明可能更直观。 2.torch.nn.Embeddings() 在torch中提供了一个nn.Embedding()层可以构建网络的过程中使用这里面涉及的参数包括以下 num_embeddings(int) : 嵌入字典的大小embedding_dim(int) 每个嵌入向量的大小… 通过程序理解这两个参数 import torch import torch.nn as nn embedding nn.Embedding(20, 5) input torch.LongTensor([[1,2,3,4], [4,3,2,9]]) print(input.shape) print(embedding(input).shape) print(embedding(input)) print(embedding.weight.shape)运行之后会得到 torch.Size([2, 4]) torch.Size([2, 4, 5]) torch.Size([20, 5])-第一个参数就是说你添加的这个字典的大小对应的是训练更新权重的第一个维度第二个参数对应的是训练更新权重的第二个维度同时embedding_dim大的大小相当于在输入数据的后面添加了一个嵌入向量大小的维度。 通俗解释输入数据是包含2句话每一句话有四个数据单词(torch.Size([2,4])),经过embedding之后还是有两句话每一句话中的每一个数据都用长度为5的向量表示则输出的维度为torch.Size([2,4,5])。
http://www.yutouwan.com/news/254984/

相关文章:

  • 腾讯云win建设网站企业简介ppt范文大全免费
  • 大型网站开发像天猫类的seo公司品牌哪家好
  • 电脑网站微信支付怎么做的外国做挂的网站是多少
  • 做网站的硬件西安高端品牌网站
  • 公主岭网站建设电商网站商品属性设计
  • 外国平面设计网站网站建设空间是否续费
  • 网站优化网站建设公司四川省网站建设
  • 北京定制网站建设企业创建网站
  • 黄岩网站建设企业网页建设公司咨询电话
  • 网页制作与网站开发网站关键字挖掘
  • 网站的三大因素seo排名工具外包
  • php网站开发工程师岗位职责蒙城网站建设
  • 深圳网站维护公司大学城网站开发公司电话
  • 专业网站建设企业网站制作wordpress 如何回到初始化
  • 肇庆网站建设方案优化怎么搭建属于自己的网站
  • 企业商城网站开发网站建设后台 手工上传
  • 兰溪网站建设学徒免费域名申请入口
  • 文本文档做网站学校网站开发需求
  • 租房网站模板在线制图免费版
  • 怎么建设自己的购物网站工信部网站备案用户名
  • php网站开发个人简历晚上必看的正能量网站
  • 上海专业网站建设排行wordpress怎么修改模板文件
  • 青岛做网站哪家公司好网站news怎么做
  • 重庆平台网站建设工作重庆的建设工程造价信息网
  • thinkphp开发企业网站苏州市城乡建设档案馆网站
  • 深圳网站网页制作网站搭建周期
  • 专业网站建设知识想开个视频网站该怎么做
  • 深圳网站建设骏域网站建设青岛城乡住房建设厅网站
  • 网站列表效果2022推广app赚佣金平台
  • 网站开发数据接口如何利用wordpress插件取消