• 主页
  • 课程

    关于课程

    • 课程归档
    • 成为一名讲师
    • 讲师信息
    同等学历教学

    同等学历教学

    免费
    阅读更多
  • 特色
    • 展示
    • 关于我们
    • 问答
  • 事件
  • 个性化
  • 博客
  • 联系
  • 站点资源
    有任何问题吗?
    (00) 123 456 789
    weinfoadmin@weinformatics.cn
    注册登录
    恒诺新知
    • 主页
    • 课程

      关于课程

      • 课程归档
      • 成为一名讲师
      • 讲师信息
      同等学历教学

      同等学历教学

      免费
      阅读更多
    • 特色
      • 展示
      • 关于我们
      • 问答
    • 事件
    • 个性化
    • 博客
    • 联系
    • 站点资源

      R语言

      • 首页
      • 博客
      • R语言
      • 【机器学习】如何在R中执行Logistic回归

      【机器学习】如何在R中执行Logistic回归

      • 发布者 weinfoadmin
      • 分类 R语言
      • 日期 2018年6月11日
      测试开头


      【机器学习】如何在R中执行Logistic回归


      笔者邀请您,先思考:

      1 交互式可视化有什么应用场景?

      2 您会用R工具做交互式可视化?

      逻辑回归是拟合回归曲线的方法,当y是分类变量时,y = f(x)。这个模型的典型用途是基于一组预测变量x预测y。预测因子可以是连续的,分类的或两者的混合。

      通常,分类变量y可以采用不同的值。在最简单的情况下,y是二进制的,意味着它可以假设值为1或0.机器学习中使用的经典示例是电子邮件分类:给定每个电子邮件的一组属性,如单词数量,链接和图片,算法应该决定电子邮件是否为垃圾邮件(1)或不(0)。在这篇文章中,我们将模型称为“二项逻辑回归”,因为要预测的变量是二元的,然而,逻辑回归也可以用来预测一个可以假设多于2个值的因变量。在第二种情况下,我们称之为“多项逻辑回归”模型。例如,一个典型的例子就是将电影在“娱乐”,“边缘”或“无聊”之间进行分类。

      R中的逻辑回归实现

      R可以很容易地拟合逻辑回归模型。 被调用的函数是glm(),拟合过程与线性回归中使用的不同。 在这篇文章中,我将拟合一个二元逻辑回归模型并解释每一步。

      数据集

      我们将研究泰坦尼克号数据集。 这个数据集有不同版本可以在线免费获得,但我建议使用Kaggle提供的数据集,因为它几乎可以使用(为了下载它,你需要注册Kaggle)。数据集(训练)是关于一些乘客的数据集合(准确地说是889),并且竞赛的目标是预测生存(如果乘客幸存,则为1,否则为0)基于某些 诸如服务等级,性别,年龄等特征。正如您所看到的,我们将使用分类变量和连续变量。

      数据清理过程

      在处理真实数据集时,我们需要考虑到某些数据可能丢失或损坏的事实,因此我们需要为我们的分析准备数据集。 作为第一步,我们使用read.csv()函数加载csv数据。确保参数na.strings等于c(“”),以便将每个缺失值编码为NA。 这将帮助我们接下来的步骤。

      training.data.raw <- read.csv(
       'train.csv',
       header = TRUE,
       na.strings = c("")
      )

      现在我们需要检查缺失的值,并使用sapply()函数查看每个变量有多少个唯一值,该函数将作为参数传递的函数应用于数据帧的每一列。

      sapply(
       training.data.raw,
       function(x) sum(is.na(x))
      )
      【机器学习】如何在R中执行Logistic回归
      sapply(
       training.data.raw,
       function(x) length(unique(x))
      )
      【机器学习】如何在R中执行Logistic回归

      对缺失值进行可视化处理可能会有所帮助:Amelia包具有特殊的绘图函数missmap(),它将绘制数据集并突出显示缺失值:

      【机器学习】如何在R中执行Logistic回归

      变量carbin有太多的缺失值,我们不会使用它。 我们也会放弃PassengerId,因为它只是一个索引和Ticket。使用subset()函数,我们将原始数据集进行子集化,只选择相关列。

      data <- subset(training.data.raw,select=c(2,3,5,6,7,8,10,12))

      处理缺失值

      现在我们需要解释其他缺失的值。 通过在拟合函数内设置参数来拟合广义线性模型时,R可以很容易地处理它们。 但是,我个人更倾向于在可能的情况下“手动”处理缺失值。 有不同的方法可以做到这一点,一种典型的方法是用现有的平均值,中位数或模式代替缺失值。 我将使用平均值。

      data$Age[is.na(data$Age)] <- mean(data$Age,na.rm=T)

      就分类变量而言,默认情况下使用read.table()或read.csv()会将分类变量编码为因子。 一个factor是R如何处理分类变量。
      我们可以使用以下代码行来检查编码

      is.factor(data$Sex)
      is.factor(data$Embarked)
      【机器学习】如何在R中执行Logistic回归

      为了更好地理解R如何处理分类变量,我们可以使用contrasts()函数。 这个函数将向我们展示变量如何被R虚拟化,以及如何在模型中解释它们。

      contrasts(data$Sex)
      contrasts(data$Embarked)

      例如,你可以看到变量sex时,女性将被用作参考。 至于Embark中的缺失值,由于只有两个值,我们将丢弃这两行(我们也可以用模式替换缺失的值并保留数据点)。

      data <- data[!is.na(data$Embarked),]
      rownames(data) <- NULL

      在进行拟合过程之前,让我提醒您清洁和格式化数据的重要性。 这个预处理步骤对于获得模型的良好拟合和更好的预测能力通常是至关重要的。

      模型拟合

      我们将数据分成两部分:训练和测试集。 训练集将用于拟合我们将在测试集上进行测试的模型。

      train <- data[1:800,]
      test <- data[801:889,]

      现在,我们来拟合模型。 一定要在glm()函数中指定参数family = binomial。

      model <- glm(Survived ~.,family=binomial(link='logit'),data=train)

      通过使用函数summary(),我们获得了我们模型的结果:

      summary(model)

      部分结果如下图:

      【机器学习】如何在R中执行Logistic回归

      解释我们的逻辑回归模型的结果

      现在我们可以分析拟合并解释模型告诉我们什么。
      首先,我们可以看到SibSp,Fare和Embarked没有统计学意义。 至于统计上显着的变量,性别具有最低的p值,这表明乘客的性别与存活的可能性有很强的关联。 该预测因子的负系数表明所有其他变量相同,男性乘客不太可能存活下来。 请记住,在Logit模型中,响应变量是对数可能性:ln(odds)= ln(p /(1-p))= a * x1 + b * x2 + … + z * xn。 由于男性是虚拟变量,因此男性将对数赔率降低2.75,而单位年龄增加则将对数赔率降低0.037。

      现在我们可以在模型上运行anova()函数来分析偏差表

      anova(model, test="Chisq")
      【机器学习】如何在R中执行Logistic回归

      零偏差和残差偏差之间的差异显示了我们的模型如何对付零模型(仅包含截距的模型)。 这个差距越大越好。 通过分析表格,我们可以看到每次添加一个变量时偏差下降的情况。 同样,增加Pclass,Sex and Age可以显着减少残余偏差。 尽管SibSp具有较低的p值,但其他变量似乎可以改进模型。 这里的大p值表示没有变量的模型差不多也能解释相同的变化量。 最终你想看到的是偏差和AIC的显着下降。

      尽管不存在与线性回归R2的精确等价,但McFadden R2指数可用于评估模型拟合。

      library(pscl)
      pR2(model)
      【机器学习】如何在R中执行Logistic回归

      评估模型的预测能力

      在上面的步骤中,我们简要地评估了模型的拟合,现在我们想看看模型在预测新的一组数据时是如何进行的。 通过设置参数type =’response’,R将以P(y = 1 | X)的形式输出概率。 我们的决策边界将是0.5。 如果P(y = 1 | X)> 0.5,则y = 1,否则y = 0。 请注意,对于某些应用程序,不同的阈值可能是更好的选择。

      fitted.results <- predict(model,newdata=subset(test,select=c(2,3,4,5,6,7,8)),type='response')
      fitted.results <- ifelse(fitted.results > 0.5,1,0)
      misClasificError <- mean(fitted.results != test$Survived)
      print(paste('Accuracy',1-misClasificError))

      “准确性0.842696629213483”
      测试集上的0.84精度是相当不错的结果。 但是,请记住,这个结果有点依赖于我之前做的数据的手动分割,因此如果您希望得到更精确的分数,最好运行某种交叉验证,如k折交叉验证。

      作为最后一步,我们将绘制ROC曲线并计算二元分类器典型性能测量的AUC(曲线下面积)。
      ROC是通过在各种阈值设置下绘制真阳性率(TPR)与假阳性率(FPR)而产生的曲线,而AUC是ROC曲线下的面积。 作为一个经验法则,具有良好预测能力的模型应该具有接近于1(1是理想的)的AUC。

      library(ROCR)
      p <- predict(model, newdata=subset(test,select=c(2,3,4,5,6,7,8)), type="response")
      pr <- prediction(p, test$Survived)
      prf <- performance(pr, measure = "tpr", x.measure = "fpr")
      plot(prf)
      auc <- performance(pr, measure = "auc")
      auc <- auc@y.values[[1]]
      auc

      0.8647186
      ROC如下图所示:

      【机器学习】如何在R中执行Logistic回归

      完整代码

      # 任务描述
      # R执行逻辑回归算法
      training.data.raw <- read.csv(
       'train.csv',
       header = TRUE,
       na.strings = c("")
      )
      sapply(
       training.data.raw,
       function(x) sum(is.na(x))
      )
      sapply(
       training.data.raw,
       function(x) length(unique(x))
      )
      library(Amelia)
      missmap(training.data.raw, main = "Missing values vs observed")
      data <- subset(training.data.raw,select=c(2,3,5,6,7,8,10,12))
      data$Age[is.na(data$Age)] <- mean(data$Age,na.rm=T)
      is.factor(data$Sex)
      is.factor(data$Embarked)
      contrasts(data$Sex)
      contrasts(data$Embarked)
      data <- data[!is.na(data$Embarked),]
      rownames(data) <- NULL
      train <- data[1:800,]
      test <- data[801:889,]
      model <- glm(Survived ~.,family=binomial(link='logit'),data=train)
      summary(model)
      anova(model, test="Chisq")
      library(pscl)
      pR2(model)
      fitted.results <- predict(model,newdata=subset(test,select=c(2,3,4,5,6,7,8)),type='response')
      fitted.results <- ifelse(fitted.results > 0.5,1,0)
      misClasificError <- mean(fitted.results != test$Survived)
      print(paste('Accuracy',1-misClasificError))
      library(ROCR)
      p <- predict(model, newdata=subset(test,select=c(2,3,4,5,6,7,8)), type="response")
      pr <- prediction(p, test$Survived)
      prf <- performance(pr, measure = "tpr", x.measure = "fpr")
      plot(prf)
      auc <- performance(pr, measure = "auc")
      auc <- auc@y.values[[1]]
      auc

      我希望这篇文章会有用。
      您有什么见解,请留言。

      作者:Michy Alice
      原文链接:
      https://www.r-bloggers.com/how-to-perform-a-logistic-regression-in-r/

      版权声明:作者保留权利,严禁修改,转载请注明原文链接。

      数据人网是数据人学习、交流和分享的平台http://shujuren.org 。专注于从数据中学习到有用知识。
      平台的理念:人人投稿,知识共享;人人分析,洞见驱动;智慧聚合,普惠人人。
      您在数据人网平台,可以1)学习数据知识;2)创建数据博客;3)认识数据朋友;4)寻找数据工作;5)找到其它与数据相关的干货。
      我们努力坚持做原创,聚合和分享优质的省时的数据知识!
      我们都是数据人,数据是有价值的,坚定不移地实现从数据到商业价值的转换!

      加入数据人圈子或者商务合作,请添加笔者微信。

      【机器学习】如何在R中执行Logistic回归

      点击阅读原文,进入数据人网,获取数据知识。


      公众号推荐:

      链达君,专注于分享区块链内容。

      【机器学习】如何在R中执行Logistic回归

      脚印英语,专注于分享英语口语内容。

      【机器学习】如何在R中执行Logistic回归


      测试结尾

      请关注“恒诺新知”微信公众号,感谢“R语言“,”数据那些事儿“,”老俊俊的生信笔记“,”冷🈚️思“,“珞珈R”,“生信星球”的支持!

      • 分享:
      作者头像
      weinfoadmin

      上一篇文章

      生信小白必踩的坑之安装软件
      2018年6月11日

      下一篇文章

      迟到的邂逅--perl
      2018年6月13日

      你可能也喜欢

      3-1665801675
      R语言学习:重读《R数据科学(中文版)》书籍
      28 9月, 2022
      6-1652833487
      经典铁死亡,再出新思路
      16 5月, 2022
      1-1651501980
      R语言学习:阅读《R For Everyone 》(第二版)
      1 5月, 2022

      搜索

      分类

      • R语言
      • TCGA数据挖掘
      • 单细胞RNA-seq测序
      • 在线会议直播预告与回放
      • 数据分析那些事儿分类
      • 未分类
      • 生信星球
      • 老俊俊的生信笔记

      投稿培训

      免费

      alphafold2培训

      免费

      群晖配置培训

      免费

      最新博文

      Nature | 单细胞技术揭示衰老细胞与肌肉再生
      301月2023
      lncRNA和miRNA生信分析系列讲座免费视频课和课件资源包,干货满满
      301月2023
      如何快速批量修改 Git 提交记录中的用户信息
      261月2023
      logo-eduma-the-best-lms-wordpress-theme

      (00) 123 456 789

      weinfoadmin@weinformatics.cn

      恒诺新知

      • 关于我们
      • 博客
      • 联系
      • 成为一名讲师

      链接

      • 课程
      • 事件
      • 展示
      • 问答

      支持

      • 文档
      • 论坛
      • 语言包
      • 发行状态

      推荐

      • iHub汉语代码托管
      • iLAB耗材管理
      • WooCommerce
      • 丁香园论坛

      weinformatics 即 恒诺新知。ICP备案号:粤ICP备19129767号

      • 关于我们
      • 博客
      • 联系
      • 成为一名讲师

      要成为一名讲师吗?

      加入数以千计的演讲者获得100%课时费!

      现在开始

      用你的站点账户登录

      忘记密码?

      还不是会员? 现在注册

      注册新帐户

      已经拥有注册账户? 现在登录

      close
      会员购买 你还没有登录,请先登录
      • ¥99 VIP-1个月
      • ¥199 VIP-半年
      • ¥299 VIP-1年
      在线支付 激活码

      立即支付
      支付宝
      微信支付
      请使用 支付宝 或 微信 扫码支付
      登录
      注册|忘记密码?