社区
首页
圈子
科研专栏
科研宝库
回到旧版
登录
最新发布
最新回帖
|
2023-10-23 16:14:53
临床研究统计学方法
临床研究的统计学方法真是不容易啊,学了忘,忘了学,哎,心累
1
1
分享
|
2023-10-22 19:53:42
C统计量与AUC区别
请问一个研究中,一个图给出了ROC曲线及AUC,另一表格又给出了C统计量,并且这个C统计量不等与AUC,是不是这个C统计量是COX回归中的C统计量?
0
1
分享
|
2023-10-22 20:03:50
怎么计算NRI
请问计算 NRI时,是不是取约登指数最大值的情况下进行计算?
0
1
分享
|
2023-10-19 17:56:41
倾向性得分匹配之后,进行的基线资料比较用配对吗?还是两样本?
1. 倾向性得分匹配之后,进行的基线资料比较用配对吗?还是两样本?2. 尝试分析过数据,想知道卡钳值的原理大概是什么?我拿年龄作为匹配的指标,发现设置为0.1 的时候,年龄依旧相差很多,只有设置为0的时候,年龄好像才一致,是我操作的问题吗?
#科研小白进阶之旅
0
2
分享
|
2023-10-22 16:21:11
数据分析标准流程
我看到医咖会里的数据分析过程好规范,但是我们实际分析中也会如此吗,我感觉课题组分析数据一上来就开搞了
#临床研究100问
0
0
分享
|
2023-10-22 13:47:43
多变量回归模型调整了哪些变量
多变量回归模型调整了哪些变量,是表一中的所有变量吗
0
1
分享
|
2023-10-22 12:04:38
meta分析-绘制森林图一定需要原始频数吗?
如果某篇meta的文章纳入的部分研究只有调整后的OR值,能不能绘制森林图?我看到有篇文章是将纳入的研究的全部OR当成RR(在部分文章没有原始频数的情况下),却绘制出了森林图。排除向原始作者要数据的情况,我猜想它是通过将OR当成RR,然后放入
1
0
分享
|
2023-10-20 20:50:39
求助设置哑变量
在logstic回归中哪种情况需要设置哑变量呀
#临床研究100问
0
1
分享
|
2023-10-18 20:04:49
PASS样本量计算方法教程哪里有资源吗
询问各路大佬,PASS样本量计算方法教程哪里有资源吗
#科研小白求助
1
2
分享
|
2023-10-18 15:52:29
数据分析好难啊
都哪里爬坡就不难存储卡套路拿不拿局部卡诺不拿哭了
2
0
分享
|
2023-10-18 14:00:12
stata学习
很好的学习资源,讲的非常好,适合快速入手的小白
#如何在一周内完成毕业论文
0
0
分享
|
2023-10-18 00:01:52
BKMR怎么做呀
BKMR怎么做呀,什么逻辑呀,学了半天也没学明白
0
0
分享
|
2023-10-16 17:01:12
KM曲线,COX分析,ROC曲线分别在什么时候用
KM曲线,COX分析,ROC曲线分别在什么时候用,怎样作图好看
0
1
分享
|
2023-10-16 16:15:47
处理大量数据有什么方法吗
每个需要数据在不同的excel表 怎么把它们快速合并到一起
0
1
分享
|
2023-10-15 14:33:32
数据分析用什么软件好啊
都不太懂spss还是stata还是R语言鸭!
0
1
分享
|
2023-10-12 10:44:26
meta纳入的研究中的调整变量
老师们,做meta的时候我想提取文献制表时,想提取调整变量,是不是纳入多变量逻辑回归的变量就是这篇研究的调整变量啊(小白)[疑问]
3
7
分享
|
2023-10-10 08:18:50
SPSS向后LR多元logistic回归,未出现在最后模型中的变量的P值如何呈现??
在SPSS中使用多元Logistic回归分析,采用向后LR进行。纳入的变量包含A、B及AB的交互项和其它自变量。这些变量同时放到块一,发现交互项并未被纳入最终模型,A和B都出现在最终模型里。此时想要呈现交互项的P值,将交互项单独放到块一,其
#统计学方法
0
1
分享
|
2023-10-08 09:33:59
R语言实战医学统计最全中文教程
R语言实战医学统计最全中文教程,直达网址:https://ayueme.github.io/
#R语言
7
1
分享
|
2023-10-08 21:42:45
科研小白,初学stata。 请教大家,对于高效学习stata,有什么好的建议
很多数据整理的命令很繁琐,学了一遍没多少印象,不学的话,甚至不知道有某种处理方法。所以请教诸位大神,对于高效学习stata,有什么好的建议。谢谢!
#Stata
0
1
分享
|
2023-10-08 11:20:07
GMDR分析方法
想问问各位老师 GMDR软件怎么矫正多种协变量
0
0
分享
加载更多
加载中...
我是有底线的
出错惹,请刷新
加载更多