一、机器学习的基本概念
1. 什么是机器学习?
- 定义:让计算机通过数据自动学习规律(模式),从而完成预测或决策的任务。
- 核心思想:从数据中“学习”而不是被明确编程。
- 例子:通过历史房价数据预测新房价,根据邮件内容判断是否是垃圾邮件。
2. 机器学习的类型
- 监督学习(有标签数据):
- 任务:预测或分类。
- 例子:输入图片→输出“猫”或“狗”。
- 常用算法:线性回归、逻辑回归、决策树、支持向量机(SVM)。
- 无监督学习(无标签数据):
- 任务:发现数据中的隐藏模式。
- 例子:将客户分成不同群体(聚类)。
- 常用算法:K-Means聚类、主成分分析(PCA)。
- 强化学习:
- 任务:通过试错学习策略(如玩游戏)。
- 例子:AlphaGo通过不断对弈优化策略。
二、机器学习常用算法
1. 监督学习
- 线性回归:
- 用途:预测连续值(如房价、温度)。
- 原理:拟合一条直线(或超平面)表示输入和输出之间的关系。
- 公式:
y = w*x + b
(w是权重,b是偏置)。
- 逻辑回归:
- 用途:二分类问题(如判断是否患病)。
- 原理:用Sigmoid函数将线性结果映射到[0,1],表示概率。
- 决策树:
- 用途:分类和回归。
- 原理:通过一系列“问题”(如“年龄>30?”)划分数据。
- 随机森林:
- 用途:提高决策树的准确性和稳定性。
- 原理:训练多个决策树,投票决定结果。
- 支持向量机(SVM):
- 用途:分类任务(尤其适合小样本数据)。
- 原理:找到一个“最优超平面”最大化不同类别的间隔。
2. 无监督学习
- K-Means聚类:
- 用途:将数据分为K个群体(如用户分群)。
- 步骤:随机选中心点→分配数据点→重新计算中心→迭代。
- 主成分分析(PCA):
- 用途:降维,简化数据。
- 原理:找到数据中方差最大的方向,投影到低维空间。
三、深度学习的基本概念
1. 什么是深度学习?
- 定义:机器学习的子领域,使用多层神经网络模拟人脑学习。
- 核心结构:神经网络(由“神经元”和“层”组成)。
- 输入层:接收数据(如图像像素)。
- 隐藏层:提取特征(如边缘→形状→物体)。
- 输出层:生成结果(如分类标签)。
2. 深度学习的关键技术
- 激活函数:
- 作用:为神经元引入非线性(如ReLU、Sigmoid)。
- 例子:ReLU函数:
f(x) = max(0, x)
。
- 反向传播:
- 作用:根据预测误差调整神经网络参数。
- 过程:从输出层反向计算梯度,逐层更新权重。
- 梯度下降:
- 作用:优化模型参数,最小化损失函数。
- 比喻:像下山一样,沿着最陡的方向逐步找到最低点。
四、深度学习常用模型
1. 卷积神经网络(CNN)
- 用途:图像识别、计算机视觉。
- 核心思想:
- 卷积层:提取局部特征(如边缘、纹理)。
- 池化层:降低数据维度(如最大池化保留主要特征)。
- 经典模型:ResNet、VGG、AlexNet。
2. 循环神经网络(RNN)
- 用途:处理序列数据(如文本、语音、时间序列)。
- 核心思想:神经元之间有循环连接,能记住之前的信息。
- 问题:长序列训练时梯度易消失/爆炸。
- 改进模型:LSTM(长短期记忆网络)、GRU。
3. Transformer
- 用途:自然语言处理(如翻译、文本生成)。
- 核心思想:自注意力机制(Self-Attention),捕捉全局依赖。
- 代表模型:BERT、GPT、T5。
五、学习路径建议
- 基础数学:线性代数(矩阵运算)、微积分(梯度)、概率统计。
- 编程工具:Python + 库(NumPy、Pandas、Scikit-learn)。
- 经典算法:先掌握逻辑回归、决策树,再学深度学习。
- 框架实战:TensorFlow/PyTorch(推荐PyTorch,更灵活)。
- 项目实践:从Kaggle竞赛或简单项目(如MNIST手写数字识别)入手。