Contents

DATA100-L22: Logistic Regression II

logistic regression model continued

sklearn demo

go to see lec code!

MLE: high-level, detailed (recorded)

linear separability and regularization

线性可分性:如果存在一个 超平面(hyperplane) 可以将数据集分割成两部分,那么这就是线性可分的。

超平面的维度和数据集的维度相同 /datal22/image-2.png $$ C $$ 注意对“push”的理解!

另一种理解正则化的角度

/datal22/image-4.png /datal22/image-3.png 这里是避免loss出现无限大的情况(梯度爆炸?),避免出现使前面情况发生的参数(infinite theta)出现,所以在loss里面预先加入正则化项。

performance metrics

accuracy

1
2
# using sklearn
model.score(X_test, y_test)

imbalanced data, precision, recall

Acc is not a good metric for imbalanced data, use precision and recall instead!!! /datal22/image-5.png $$ acc= \frac{TP+TN}{n}\ precision(精确率)=\frac{TP}{TP+FP}\ recall(召回率)=\frac{TP}{TP+FN} $$ /datal22/image-6.png /datal22/image-7.png

adjusting the classification threshold(阈值界限)

a case study

/datal22/image-9.png 变界限可能是因为imbalanced data导致的

ROC curves and AUC

怎么选择阈值? /datal22/image-10.png /datal22/image-11.png /datal22/image-12.png /datal22/image-13.png /datal22/image-14.png /datal22/image-15.png

[extra] detailed MLE, gradient descent, PR curves

Why cross-entropy?

以下讨论MLE,二分类的话以 伯努利 举例 /datal22/image.png /datal22/image-1.png

PR curves

/datal22/image-16.png false positive在T变大的时候增加得更快,所以可能slightly decrease /datal22/image-17.png /datal22/image-18.png 考虑PR /datal22/image-19.png /datal22/image-20.png

插曲

似乎自然科学所有学科都可以被解构为 “观测到的知识点(context)” + 信息数理化(math & computer science) ?

换言之只需要一方面不断扩充数据/知识点,另一方面提出高明的信息数理化分析方法,就可以推动科学的进步?🤔 🤔 ❓ /datal22/image-8.png https://docs.google.com/presentation/d/1YsxPERhul760_0TrLhawljbWWqDbtIp5tUm05irfkmw/edit#slide=id.g12444cd4007_0_537