5本册零基础玩转抖音电商社群营销新媒体运营口碑互联网餐饮微信软文网络市场营销学书籍广告文案写作实体店活动营销策划推广方案书籍教程与创意 mobi 下载 网盘 caj lrf pdf txt 阿里云

5本册零基础玩转抖音电商社群营销新媒体运营口碑互联网餐饮微信软文网络市场营销学书籍广告文案写作实体店活动营销策划推广方案书籍教程与创意精美图片

5本册零基础玩转抖音电商社群营销新媒体运营口碑互联网餐饮微信软文网络市场营销学书籍广告文案写作实体店活动营销策划推广方案书籍教程与创意电子书下载地址

》5本册零基础玩转抖音电商社群营销新媒体运营口碑互联网餐饮微信软文网络市场营销学书籍广告文案写作实体店活动营销策划推广方案书籍教程与创意电子书籍版权问题 请点击这里查看《

5本册零基础玩转抖音电商社群营销新媒体运营口碑互联网餐饮微信软文网络市场营销学书籍广告文案写作实体店活动营销策划推广方案书籍教程与创意书籍详细信息

  • I***N:9787574209701
  • 作者:暂无作者
  • 出版社:暂无出版社
  • 出版时间:2019-03
  • 页数:暂无页数
  • 价格:145.80
  • 纸张:胶版纸
  • 装帧:平装-胶订
  • 开本:32开
  • 语言:未知
  • 丛书:暂无丛书
  • TAG:暂无
  • 豆瓣评分:暂无豆瓣评分
  • 豆瓣短评:点击查看
  • 豆瓣讨论:点击查看
  • 豆瓣目录:点击查看
  • 读书笔记:点击查看
  • 原文摘录:点击查看

寄语:

正品保证丨优质售后|买贵退差


内容简介:

暂无相关简介,正在全力查找中!


书籍目录:

暂无相关目录,正在全力查找中!


作者介绍:

暂无相关内容,正在全力查找中


出版社信息:

暂无出版社相关信息,正在全力查找中!


书籍摘录:

暂无相关书籍摘录,正在全力查找中!



原文赏析:

*-chp11_二值选择模型

/* * 二值模型的stata命令为

probit y x1 x2 x3, r //probit模型

logit y x1 x2 x3, or vce(cluster culstvar) //logit模型

// r表示稳健标准误,or 表示显示几率比,选择项vce(cluster culstvar) 表示使用clustvar 为聚类变量的聚类稳健标准误

* 估计后,可以用以下命令进行预测,并计算准确预测的百分比

predict yhat //计算发生概率的预测值yhat

estat clas //计算预测准确的百分比,clas表示classification

* 在stata 12中,计算边际效应的命令为,

margins, dydx(*) //计算所有解释变量的平均边际效应

margins, dydx(*) atmeans //计算所有解释变量在样本均值处的边际效应

margins, dydx(*) at (x1=0) //计算所有解释变量在x1=0处的边际效应

margins, dydx(x1) //计算解释变量x1的平均边际效应

margins, eyex(*) //计算平均弹性,其中两个“e”均指elasticity

margins, eydx(*) //计算平均半弹性,x变化1单位引起y变化百分之几

margins, dyex(*) //计算平均半弹性,x变化1%引起y变化几个单位

// 其中,“*”代表所有解释变量 */

*- e.g.

cd "…/data"

use womenwk.dta, clear

reg work age married children education, r

* 其次,用logit估计

logit work age married chi...


*-chp14 受限被解释变量

*- 14.1 断尾回归

* 断尾回归的stata命令:

* truncreg y x1 x2 x3, ll(#)ul(#)

* 选择项“ll(#)”表示lower limit,即左边断尾;

* 选择性“ul(#)”表示upper limit,即右边断尾;

* 如果同时使用两个选择项,则表示双边断尾。

cd "…data"

use laborsub.dta, clear

tab lfp

* 先进性ols回归

reg whrs kl6 k618 wa we if whrs > 0

* 然后进行断尾回归,假设在“whrs=0”处存在左边断尾

truncreg whrs kl6 k618 wa we, ll(0) nolog

*- 14.2 零断尾泊松回归与负二项回归

* ztp y x1 x2 x3, r //(零断尾泊松回归)

* ztnb y x1 x2 x3, r //(零断尾负二项回归,默认为NB1模型)

* ztnb x1 x2 x3, r dispersion(c***tant) //(零断尾负二项回归,NB1模型)

// 其中选择项 “r” 表示使用稳健标准误

* e.g.

use CRIME1.dta, clear

drop if narr86 == 0

* 首先进行零断尾泊松回归

ztp narr86 pcnv avgsen tottime ptime86 qemp86 inc86 black hispan born60, r nolog

* 如果直接用所有解释变量进行零断尾负二项回归,无论 NB1 还是 NB2 ,都不会收敛,为演示目的,在解释变量中去掉断尾回归中最不显著的两个变量 ptime86 与 born60,再进行 NB2 回归。

*- 14.3 随机前沿模型(选读)

* 随机前沿模型的stata命...


clear all

cd ……

global Out ……

use $Out/nerlove.dta, clear

reg lntc lnq lnpl lnpk lnpf

* 画残差图

rvfplot

rvpplot lnq

* white检验

estat imtest, white

* BP检验

estat hettest, iid

estat hettest, rhs iid

estat hettest lnq, iid

* WLS

cap drop e1 e2 lne2

reg lntc lnq lnpl lnpk lnpf //回归

predict e1, res //计算残差

g e2 = e1^2 //生成残差的平方

g lne2 = log(e2) //先取对数

reg lne2 lnq, noc //做辅助回归, 从结果可知残差平方与lnq高度相关(0.75)

predict lne2f //计算辅助回归的拟合值

g e2f = exp(lne2f) //去掉对数

reg lntc lnq lnpl lnpk lnpf [aw = 1/e2f]


*-chp9 模型设定与数据问题

* 9.4 解释变量个数的选择

clear all

cd "……"

* reg y x1 x2 x3

* estat ic

use icecream.dta, clear

qui reg c***umption temp price income

estat ic

qui reg c***umption temp L.temp price income

estat ic

qui reg c***umption temp L.temp L2.temp price income

estat ic

* 9.5 对函数形式的检验

* reg y x1 x2 x3

* estat ovtest //使用y拟合值的高次项作为非线性项

* estat ovtest, rhs //使用解释变量的幂作为非线性项

* reg y x1 x2 x3

* linktest

use nerlove.dta, clear

qui reg lntc lnq lnpl lnpk lnpf

linktest //_hatsq显著,所以存在设定误差

estat ovtest //拒绝的“无遗漏变量”假设

estat ovtest, rhs //拒绝的“无遗漏变量”假设

g lnq2 = lnq^2

reg lntc lnq lnq2 lnpl lnpk lnpf

linktest

estat ovtest

* 9.6 多重共线性

use nerlove.dta, clear

qui reg lntc lnq lnpl lnpk lnpf

estat vif

* 9.7 极端数据

reg y x1 x2 x3

predict lev, leverage //列出所有解释变量的lev值

gsort -lev //将所有观测数据按lev的...


* chp13 计数与排序模型

* 13.1 排序模型

* 排序模型的stata命令为:

* oprobit y x1 x2 x3 //ordered probit 模型

* ologit y x1 x2 x3 //ordered logit 模型

cd "…data"

use panel84extract.dta, clear

oprobit rating83c ia83 dia, nolog

// cut1, cut2, cut3为切点的估计值

* 可以预测每个公司的评价概率

predict p2 p3 p4 p5

list p2 p3 p4 p5 in 1/1

* 进行ordered logit 估计,然后预测每个公司的评级概率,并列出第一个观测值的预测结果

ologit rating83c ia83 dia, nolog

* 13.2 泊松回归

* poisson y x1 x2 x3, r irr

* poisson y x1 x2 x3, r exposure(x1)

* poisson y x1 x2 x3, r offset(x1)

*- 13.3 负二项回归

* nbreg y x1 x2 x3, r exposure(x1)

* nbreg y x1 x2 x3, r dispersion(c***tant) offset(x1)

// r表示使用稳健标准误

// 选择项 dispersion(c***tant)表示使用NB1模型(默认使用NB2模型)

// 选择项 exposure(x1)表示吧lnx1作为解释变量,并令其系数为1

// 选择项 offset(x1)表示把x1作为解释变量,并令其系数为1

* 广义负二项模型

* gnbreg y x1 x2 x3, r lnalpha(z1 z2)

// 选择项 lnalpha(z1 z2)...


*-chp28 处理效应

*-28.1 处理效应与选择难题

*-28.2 通过随机分组解决选择难题

*-28.3 依可测变量选择

*-28.4 匹配估计量的思想

*-28.5 倾向得分匹配

*-28.6 倾向得分匹配的stata实例

* psmatch2 D X1 X2 X3, outcome(y) logit ties ate common odds pscore(varname) quietly

* D 处理变量

* x1 x2 x3 协变量

* outcome(y) 指定结果变量

* logit 使用logit估计倾向得分

* ties 包括所有ps相同的并列个体,默认按照数据排序选择其中一位个体

* ate 同时汇报ate, atu 与 att,默认只汇报 att

* common 仅对共同取值范围内个体进行匹配,默认对所有个体匹配

* odds 使用几率比匹配,more使用倾向得分匹配

* pscore(varname) 指定某变量作为倾向得分,默认通过 x1 x2 x3 估计倾向得分

* quietly 不汇报估计过程

* 1) psmatch2 D x1 x2 x3, outcome(y) neighbor(k) noreplacement

* neighbor(k) 表示进行k 近邻匹配;默认 k = 1,即 1 对 1匹配

* noreplacement 表示无放回匹配,默认为又放回

* 该选项只能用于 1 对 1 匹配

* 2) psmatch2 D x1 x2 x3, outcome(y) radius caliper(real)

* radius 表示进行半径匹配

* caliper(real) 指定卡尺ε

* 3) psmatch2 D x1 x2 x3, outcome(y) neighbor(k) caliper(real)

* neig...


其它内容:

暂无其它内容!


书籍真实打分

  • 故事情节:9分

  • 人物塑造:9分

  • 主题深度:4分

  • 文字风格:6分

  • 语言运用:8分

  • 文笔流畅:6分

  • 思想传递:5分

  • 知识深度:9分

  • 知识广度:8分

  • 实用性:8分

  • 章节划分:7分

  • 结构布局:9分

  • 新颖与独特:3分

  • 情感共鸣:9分

  • 引人入胜:9分

  • 现实相关:9分

  • 沉浸感:4分

  • 事实准确性:4分

  • 文化贡献:9分


网站评分

  • 书籍多样性:5分

  • 书籍信息完全性:8分

  • 网站更新速度:3分

  • 使用便利性:8分

  • 书籍清晰度:4分

  • 书籍格式兼容性:9分

  • 是否包含广告:3分

  • 加载速度:6分

  • 安全性:9分

  • 稳定性:9分

  • 搜索功能:7分

  • 下载便捷性:3分


下载点评

  • azw3(288+)
  • 收费(565+)
  • 不亏(133+)
  • 无漏页(309+)
  • 图书多(357+)
  • 下载速度快(598+)
  • 四星好评(65+)
  • 愉快的找书体验(509+)
  • 下载快(598+)
  • 好评(293+)
  • 差评少(230+)
  • 盗版少(512+)

下载评价

  • 网友 薛***玉:

    就是我想要的!!!

  • 网友 融***华:

    下载速度还可以

  • 网友 养***秋:

    我是新来的考古学家

  • 网友 师***怀:

    好是好,要是能免费下就好了

  • 网友 寇***音:

    好,真的挺使用的!

  • 网友 习***蓉:

    品相完美

  • 网友 国***芳:

    五星好评

  • 网友 方***旋:

    真的很好,里面很多小说都能搜到,但就是收费的太多了

  • 网友 孙***夏:

    中评,比上不足比下有余


随机推荐