当前位置: 首页 > news >正文

做网页引用别的网站的视频电商网站平台

做网页引用别的网站的视频,电商网站平台,WordPress置顶文章优先,东莞营销型网站开发目录 1、贝叶斯算法 2、朴素贝叶斯算法 3、先验概率和后验概率 4、⭐机器学习中的贝叶斯公式 5、文章分类中的贝叶斯 6、拉普拉斯平滑系数 6.1、介绍 6.2、公式 7、API 8、示例 8.1、分析 8.2、代码 8.3、⭐预测流程分析 #x1f343;作者介绍#xff1a;准大三…目录 1、贝叶斯算法 2、朴素贝叶斯算法 3、先验概率和后验概率 4、⭐机器学习中的贝叶斯公式 5、文章分类中的贝叶斯 6、拉普拉斯平滑系数 6.1、介绍 6.2、公式 7、API 8、示例 8.1、分析 8.2、代码 8.3、⭐预测流程分析 作者介绍准大三本科网络工程专业在读阿里云专家博主专注于Java领域学习擅长web应用开发、数据结构和算法初步涉猎Python人工智能开发。 主页逐梦苍穹 ⭐分类算法系列①初识概念 ⭐分类算法系列②KNN(K-近邻)算法 ⭐分类算法系列③模型选择与调优 (Facebook签到位置预测) 您的三连支持是我创作的最大动力 首先介绍贝叶斯算法再介绍朴素贝叶斯朴素贝叶斯是贝叶斯的特殊情况。 1、贝叶斯算法 贝叶斯算法是基于贝叶斯定理的一类算法用于从已知的条件概率中推断出未知事件的概率。贝叶斯定理是一个描述联合概率分布的数学公式其形式如下 其中 P(A∣B) 表示在已知事件 B 发生的情况下事件 A 发生的概率后验概率。P(B∣A) 表示在已知事件 A 发生的情况下事件 B 发生的概率。P(A) 和 P(B) 分别表示事件 A 和事件 B 的先验概率。 贝叶斯算法的应用范围广泛包括垃圾邮件过滤、文本分类、推荐系统等。通过不断地更新先验概率和计算后验概率贝叶斯算法可以根据新的证据不断更新对未知事件的概率估计。 2、朴素贝叶斯算法 朴素贝叶斯算法是贝叶斯算法的一种特例用于分类问题。它假设特征之间相互独立从而简化了计算过程。尽管这个假设通常并不成立但朴素贝叶斯算法在很多实际应用中表现出色。 朴素贝叶斯算法的基本思想是基于贝叶斯定理通过计算后验概率来判断给定输入数据属于不同的类别。在分类问题中输入数据被表示为特征向量而类别即为需要预测的目标类别。朴素贝叶斯分类器根据训练数据学习类别的概率分布然后根据输入特征计算后验概率选择概率最高的类别作为预测结果。 朴素贝叶斯算法具有简单、高效的特点适用于文本分类、垃圾邮件过滤、情感分析等任务。 尽管其假设特征之间独立的前提在现实中不一定成立但在许多情况下朴素贝叶斯算法依然能够取得很好的分类效果。 3、先验概率和后验概率 先验概率Prior Probability和后验概率Posterior Probability都是贝叶斯定理中的概念用于描述在已知或考虑了一些信息或条件的情况下事件发生的概率。 先验概率 先验概率是在考虑任何新信息之前根据以往的经验或已有的知识对事件发生概率的主观估计。它表示在没有额外信息的情况下事件发生的概率。在贝叶斯定理中先验概率被表示为 P(A)其中 A 表示某个事件。后验概率 后验概率是在考虑了新信息或额外条件后对事件发生概率进行更新的概率。它表示在已知一些条件或信息的情况下事件发生的概率。在贝叶斯定理中后验概率被表示为 P(A∣B)其中 A 表示某个事件B 表示已知的条件或信息。 贝叶斯定理描述了如何根据已知的条件和先验概率计算后验概率即如何将新信息融入到概率估计中。这个过程可以帮助我们更准确地估计事件的概率尤其是在有限的数据或信息下。在机器学习和统计中贝叶斯定理和先验、后验概率的概念经常被用于构建分类器、预测模型和概率推断。 4、⭐机器学习中的贝叶斯公式 原理同普遍条件下的公式肯定是的但是表现形式可以略有不同。 在机器学习中特别是在朴素贝叶斯分类器中贝叶斯公式的形式通常如下 其中 是给定输入数据 X在类别 下发生的后验概率表示为对于给定数据 X它属于类别 的概率。是在类别 下输入数据 X 发生的条件概率表示为给定类别 下输入数据 X 的概率。是类别 的先验概率表示在没有任何信息的情况下数据属于类别 的概率。是输入数据  的边缘概率表示数据 发生的概率。 在朴素贝叶斯算法中假设特征之间是独立的朴素假设因此可以将 表示为各个特征的条件概率的乘积即。表示第个特征. 这个公式用于计算在给定输入数据 X 的情况下属于各个类别 的后验概率。 在分类问题中我们可以选择具有最高后验概率的类别作为预测的类别。 5、文章分类中的贝叶斯 公式分为三个部分(其中C可以是不同类别) P(C)每个文档类别的概率(某文档类别数总文档数量)P(W│C)给定类别下特征被预测文档中出现的词的概率 计算方法P(F1│C)Ni/N训练文档中去计算 Ni为该F1词在C类别所有文档中出现的次数N为所属类别C下的文档所有词出现的次数和 P(F1,F2,…) 预测文档中每个词的概率 6、拉普拉斯平滑系数 6.1、介绍 拉普拉斯平滑Laplace Smoothing也称为加一平滑Add-One Smoothing或修正的拉普拉斯法则是一种用于解决概率估计中的零概率问题的技术。它主要应用于朴素贝叶斯分类器等机器学习和自然语言处理任务中。 在统计学和概率论中当我们根据已有数据估计事件的概率时有时候可能会遇到某些事件在训练数据中没有出现导致估计出的概率为零。这可能会在实际应用中引起问题例如在贝叶斯分类器中如果某个特征值在某个类别中未见过就会导致整个分类概率为零。 拉普拉斯平滑通过为每个可能的特征值添加一个平滑因子解决了这个问题。平滑因子通常是1所以也称为加一平滑。它的基本思想是在所有可能的特征值上增加一个计数使得每个特征值至少出现一次从而避免零概率的问题。 在朴素贝叶斯分类器中拉普拉斯平滑应用于计算条件概率。对于每个特征都会将计数值加1同时对可能的特征值总数进行加法平滑。这样在计算后验概率时就可以避免分子为零的情况。 拉普拉斯平滑的使用使得概率估计更稳定尤其是在数据量有限的情况下。然而这种平滑也可能引入一定的偏差因为它会均匀地将概率分布平移但在实际应用中这种偏差通常是可以接受的。 6.2、公式 平滑后的条件概率 参数解释 表示在类别 下特征值 出现的次数。表示在类别 下的样本总数。表示特征 可能的取值数量例如为训练文档中出现的特征词个数 这个公式表示了在计算平滑后的条件概率时为每个特征值 都加上了一个平滑因子以确保每个特征值至少出现一次避免零概率的情况。 7、API sklearn.naive_bayes.MultinomialNB(alpha 1.0) 朴素贝叶斯分类 alpha拉普拉斯平滑系数 8、示例 8.1、分析 代码实现的步骤如下 分割数据集tfidf进行的特征抽取朴素贝叶斯预测 8.2、代码 # -*- coding: utf-8 -*- # Author:︶ㄣ释然 # Time: 2023/9/1 11:00 from sklearn.datasets import fetch_20newsgroups # 20类新闻分类 from sklearn.feature_extraction.text import TfidfVectorizer # TF-IDF特征提取 from sklearn.model_selection import train_test_split # 训练集划分 from sklearn.naive_bayes import MultinomialNB # 多项式朴素贝叶斯分类器 sklearn.naive_bayes.MultinomialNB(alpha 1.0)朴素贝叶斯分类alpha拉普拉斯平滑系数def naiveBayes():朴素贝叶斯对新闻数据集进行预测# 获取新闻的数据20个类别news fetch_20newsgroups(subsetall)# 进行数据集分割x_train, x_test, y_train, y_test train_test_split(news.data, news.target, test_size0.3)# 对于文本数据进行特征抽取tf TfidfVectorizer()x_train tf.fit_transform(x_train)# 这里打印出来的列表是训练集当中的所有不同词的组成的一个列表print(tf.get_feature_names())# print(x_train.toarray())# 不能调用fit_transform# TF-IDF 特征抽取过程中模型已经通过 x_train 学习了词汇表和特征权重# 因此在处理测试集时只需要进行转换操作而不再需要重新拟合模型x_test tf.transform(x_test)# estimator估计器流程mlb MultinomialNB(alpha1.0)mlb.fit(x_train, y_train)# 进行预测y_predict mlb.predict(x_test)print(预测每篇文章的类别, y_predict[:100])print(真实类别为, y_test[:100])print(预测准确率为, mlb.score(x_test, y_test))if __name__ __main__:naiveBayes() 实现结果 在代码中有一段是 这部分不能调用fit_transform() TF-IDF 特征抽取过程中模型已经通过 x_train 学习了词汇表和特征权重 因此在处理测试集时只需要进行转换操作而不再需要重新拟合模型 8.3、⭐预测流程分析 贝叶斯算法包括朴素贝叶斯算法在文本分类中的预测过程涉及计算后验概率以确定最可能的类别。下面是详细的预测过程说明 特征提取首先文本数据需要经过特征提取的过程将文本转换为数字化的特征向量。在文本分类中常用的特征表示方法是 TF-IDFTerm Frequency-Inverse Document Frequency。计算先验概率对于每个类别 需要计算它在训练数据中出现的概率即先验概率 。这可以通过统计训练数据中属于类别 的样本数量除以总样本数量来得到。计算条件概率对于每个特征 需要计算在给定类别 的情况下特征值 出现的概率即条件概率 。这可以通过先前提到的拉普拉斯平滑后的条件概率公式来计算。计算后验概率对于给定的文本 需要计算它在每个类别下的后验概率 表示在已知文本特征的情况下属于类别 的概率。根据贝叶斯定理后验概率可以表示为 其中 是在类别 下文本特征 出现的概率可以根据特征独立性假设进行计算- 是先验概率- 是文本特征 出现的概率。决策规则选择具有最高后验概率的类别作为预测结果。即对于给定的文本 选择满足 的类别 。
http://www.sadfv.cn/news/313278/

相关文章:

  • 网站建设布吉银州手机网站建设
  • 电子商务网站建设有管理课后答案wordpress log 信息
  • 建模网站做网站建设销售员准备什么
  • 网站的平面设计图用ps做快速搭建展示型网站
  • 互联网营销工具有哪些潮州网站推广优化
  • 最新网站源码下载南京网页空间
  • 龙岩网站建设加盟深圳网站制作专业公司
  • iis7 无法添加网站北京网站建设电话
  • 高端汽车网站建设外贸流程图解
  • 贵阳营销型网站建设四川有那些网站建设公司
  • 营销型网站搭建的工作四川网站制作
  • 网站开发项目开发高唐网站
  • 合肥新格建站网中国刚刚发生的新闻
  • asp购物网站客户查看购物车南京自助网站推广建站
  • 以公司名称为后缀的邮箱福州搜索优化实力
  • seo网站策划网站页面结构怎么做有利于优化
  • 利辛做网站网站建设和咨询服务合同
  • 网站开发如何下载服务器文档作文网站哪个平台好
  • 台州做网站设计的公司搜索引擎营销策划方案
  • 去公司叫自己做网站不会做wordpress 雷锋模板
  • 泉州网站建设方案详细设计模板在哪里找
  • 做的网站没给我备案搜索引擎优化工具深圳
  • 关于wordpress 反馈优化大师怎么样
  • 网站布局优化策略网站开发一般要多少钱
  • 青海网站制作哪家好百度官网推广平台
  • 西安企业seo外包服务公司西安网站推广优化
  • 宜春网站建设公司旅游网站建设规划报告怎么写
  • 南宁网站建公司吗网站推广适合哪种公司做
  • 网站空格键代码佛山网站建设慕枫
  • 公司网站推广如何做建设网站步骤