京东自动评价系统图片上传稳定性深度优化实践
2026/4/15 10:29:13
欢迎来到第85天!
在前面的课程中,我们学习了逻辑回归(找一条线划分)和决策树(用if/else切分)。
今天,我们要学习一个在深度学习流行之前,统治了机器学习领域近 20 年的算法——支持向量机 (Support Vector Machine, SVM)。
SVM 的核心思想是:找到一个能将两类数据分得"最开"的决策边界(超平面)。这个边界就像一条马路,我们希望马路越宽越好,这样容错率更高。
本节内容:
SVC与SVR想象一下,在两堆点之间画一条线,可以有无数种画法。SVM 认为,最好的那条线,是离两边最近的点最远的那条。
这条"最宽的马路"的宽度,就叫间隔 (Margin)。
决定这条"马路"边界的那些点,就叫支持向量。SVM 只关心这些离边界最近的点,其他点对模型没有影响。
[外链图片转存中…(img-bzIHDqJk-1768672246392)]
如果数据是线性不可分的(比如一个圈套着另一个圈),怎么办?
SVM 的天才之处在于核技巧。它通过一个核函数,将数据从低维空间映射到高维空间,让它们变得线性可分。
SVC: Support VectorClassifierSVR: Support VectorRegressorC(惩罚系数):C越大,越追求"纯洁"(所有点都分对),容错率低,容易过拟合。C越小,允许犯一些错误,容错率高,泛化能力可能更好。kernel:'linear','poly','rbf'(默认)。gamma(RBF核专用):gamma越大,影响范围越小,边界越弯曲,容易过拟合。gamma越小,影响范围越大,边界越平滑。我们用 SVM 来解决 Day 79 的手写数字识别问题,看看和神经网络比效果如何。
fromsklearn.datasetsimportfetch_openmlfromsklearn.model_selectionimporttrain_test_splitfromsklearn.preprocessingimportStandardScalerfromsklearn.svmimportSVCfromsklearn.metricsimportaccuracy_scoreimportpandasaspd# 1. 加载数据 (如果慢,可以只取一小部分)# as_frame=False 返回 NumPy 数组X,y=fetch_openml('mnist_784',version=1,return_X_y=True,as_frame=False)# 数据量太大,只取前 10000 个样本用于演示X=X[:10000]y=y[:10000]# 2. 标准化 (SVM对尺度敏感,必须标准化)scaler=StandardScaler()X_scaled=scaler.fit_transform(X)# 3. 划分数据集X_train,X_test,y_train,y_test=train_test_split(X_scaled,y,test_size=0.3,random_state=42)# 1. 创建模型 (RBF 核是默认的)# C 和 gamma 是需要调优的超参数model=SVC(kernel='rbf',C=5,gamma=0.05,random_state=42)# 2. 训练print("开始训练 SVM (这可能会很慢)...")model.fit(X_train,y_train)# 3. 预测与评估print("训练完成,开始评估...")y_pred=model.predict(X_test)acc=accuracy_score(y_test,y_pred)print(f"SVM 在 MNIST 上的准确率:{acc:.3f}")# 结果通常在 0.95 以上,非常强大!让我们看看 SVM 如何处理线性不可分的数据。
fromsklearn.datasetsimportmake_circlesimportnumpyasnpimportmatplotlib.pyplotasplt# 1. 创建环形数据X,y=make_circles(n_samples=100,factor=0.3,noise=0.1)# 2. 训练 SVM (使用 rbf 核)svm=SVC(kernel='rbf').fit(X,y)# 3. 绘制决策边界 (辅助函数)defplot_decision_boundary(model,X,y):h=.02x_min,x_max=X[:,0].min()-.1,X[:,0].max()+.1y_min,y_max=X[:,1].min()-.1,X[:,1].max()+.1xx,yy=np.meshgrid(np.arange(x_min,x_max,h),np.arange(y_min,y_max,h))Z=model.predict(np.c_[xx.ravel(),yy.ravel()])Z=Z.reshape(xx.shape)plt.contourf(xx,yy,Z,alpha=0.3)plt.scatter(X[:,0],X[:,1],c=y,edgecolors='k')# 4. 可视化plt.figure(figsize=(8,6))plot_decision_boundary(svm,X,y)plt.title("SVM with RBF Kernel")# plt.show()SVM 的计算复杂度较高,尤其是样本量很大时。
LinearSVC:如果你的数据是线性可分的,或者样本量巨大,LinearSVC专门为大规模线性问题做了优化,比SVC(kernel='linear')快得多。C和gamma怎么选?这就是所谓的超参数调优 (Hyperparameter Tuning)。
通常使用GridSearchCV(网格搜索) 来自动寻找最佳组合。
关键要点:
GridSearchCV在 MNIST 数据上自动搜索最佳的C和gamma值。SVR解决 Day 82 的加州房价预测问题,并与线性回归对比效果。make_circles数据上,分别用kernel='linear'和kernel='rbf'训练,对比它们的决策边界,直观感受核技巧的威力。Day 86:机器学习进阶 - K-Means 聚类- 如果数据没有标签怎么办?明天我们学习无监督学习,让机器自己从数据中找出"物以类聚"的规律。
系列导航: