AI基础知识分享
  

连港华 5206

{{ttag.title}}

AI基础知识扫盲
1什么是AI

AI(Artificial Intelligence,人工智能) 是指通过计算机系统模拟人类智能的能力,使其能够执行通常需要人类智慧的任务。AI 的目标是让机器能够感知、学习、推理、规划和解决问题,甚至具备创造力和情感理解能力。

AI 的主要分支
1.  机器学习(Machine Learning, ML):
a.  通过算法让计算机从数据中学习规律,而无需显式编程。
b.  例如:图像分类、语音识别、推荐系统。
2.  深度学习(Deep Learning, DL):
a.  机器学习的一个子领域,使用神经网络(尤其是深层神经网络)来处理复杂任务。
b.  例如:自然语言处理、计算机视觉。
3.  自然语言处理(Natural Language Processing, NLP):
a.  使计算机能够理解、生成和处理人类语言。
b.  例如:机器翻译、聊天机器人、文本生成。
4.  计算机视觉(Computer Vision, CV):
a.  让计算机能够“看懂”图像和视频。
b.  例如:人脸识别、自动驾驶、医学影像分析。
5.  强化学习(Reinforcement Learning, RL):
a.  通过试错和奖励机制训练模型,使其在特定环境中做出最优决策。
b.  例如:游戏 AI、机器人控制。
2什么是大小模型?

在人工智能和机器学习领域,"大模型"和"小模型"通常用来描述模型的规模、复杂度和能力。它们的区别主要体现在参数量、计算资源需求和应用场景上。大模型是指参数量巨大、结构复杂的模型,通常需要大量的计算资源和数据来训练。小模型是指参数量较少、结构简单的模型,通常对计算资源和数据的需求较低。

为什么GPT时代,⽪⾐⼑客能赚的盆满钵满(为什么都在聊 GPU显卡?) 这其实涉及到⼀个CPU与GPU的区别, ⽤⼀个⽐喻来说,CPU是⼀个知识渊博的 博⼠,它可以处理复杂的任务,⽽GPU则是⼀群⼩学⽣,它们能处理批量的简单计 算;举例来说,我们打⼀场战地游戏,则⼦弹弹道的计算会交由CPU主要负责,⽽ 场景渲染,光效追踪,烟雾、爆炸等批量计算会是GPU的⼯作。
3传统AI跟生成时AI的区别

传统式AI(Traditional AI)和生成式AI(Generative AI)是人工智能领域的两种主要范式,它们在目标、方法、应用场景和技术实现上有显著区别。以下是它们的详细对比:

1. 定义
● 传统式AI:
○ 也称为判别式AI(Discriminative AI),专注于从输入数据中学习模式并做出决策或预测。
○ 主要用于分类、回归、检测等任务。
○ 例如:图像分类、垃圾邮件过滤、语音识别。
● 生成式AI:
○ 专注于生成新的数据,这些数据与训练数据类似,但并非简单复制。
○ 主要用于创造新内容,如文本、图像、音频、视频等。
○ 例如:文本生成、图像生成、音乐创作。
2. 目标
● 传统式AI:
○ 目标是学习输入数据与输出标签之间的映射关系。
○ 例如:给定一张图片,判断它是猫还是狗。
● 生成式AI:
○ 目标是学习数据的分布,并生成新的数据样本。
○ 例如:生成一张新的猫或狗的图片。
3. 方法
● 传统式AI:
○ 使用判别模型(Discriminative Models),如逻辑回归、支持向量机(SVM)、卷积神经网络(CNN)等。
○ 直接建模条件概率 P(Y∣X)P(Y∣X),即给定输入 XX 预测输出 YY。
● 生成式AI:
○ 使用生成模型(Generative Models),如变分自编码器(VAE)、生成对抗网络(GAN)、扩散模型(Diffusion Models)、自回归模型(如 GPT)等。
○ 建模联合概率 P(X,Y)P(X,Y) 或数据分布 P(X)P(X),从而能够生成新的数据。
4. 应用场景
● 传统式AI:
○ 图像分类:识别图像中的物体。
○ 语音识别:将语音转换为文本。
○ 推荐系统:根据用户历史行为推荐商品。
○ 异常检测:识别数据中的异常点。
● 生成式AI:
○ 文本生成:生成文章、对话、代码等(如 ChatGPT)。
○ 图像生成:生成逼真的图像(如 DALL·E、Stable Diffusion)。
○ 音乐生成:创作新的音乐作品。
○ 视频生成:生成或编辑视频内容。
5. 技术实现
● 传统式AI:
○ 依赖于标注数据(监督学习)。
○ 模型通常较小,计算资源需求相对较低。
○ 例如:使用 ResNet 进行图像分类。
● 生成式AI:
○ 可以使用标注数据或无标注数据(无监督或自监督学习)。
○ 模型通常较大,需要大量计算资源(如 GPT-3 有 1750 亿参数)。
○ 例如:使用 GPT-4 生成文本,或使用 Stable Diffusion 生成图像。
6. 优缺点
● 传统式AI:
○ 优点:
■ 任务明确,结果可解释性强。
■ 计算资源需求较低,适合实时应用。
○ 缺点:
■ 依赖大量标注数据。
■ 无法生成新内容,仅限于预测或分类。
● 生成式AI:
○ 优点:
■ 能够生成新内容,创造力强。
■ 可以处理无标注数据,适用场景广泛。
○ 缺点:
■ 计算资源需求高,训练成本大。
■ 生成结果可能不稳定或不可控。
7. 典型例子
● 传统式AI:
○ 图像分类:ResNet、Inception。
○ 语音识别:DeepSpeech。
○ 目标检测:YOLO、Faster R-CNN。
● 生成式AI:
○ 文本生成:GPT-3、GPT-4。
○ 图像生成:DALL·E、Stable Diffusion。
○ 音乐生成:Jukedeck、OpenAI Jukebox。
4人工智能神经网络知识

AI神经网络是一种模仿生物大脑神经元结构的计算模型,由多层人工神经元组成,通过输入数据、加权计算和激活函数处理,学习数据中的复杂模式。它广泛应用于图像识别、语音处理、自然语言理解等任务,是深度学习的核心技术。简单来说,是因为输⼊、输出参数以及中间的计算、传导过程类似于⼈脑神经元的传 递过程,因此将此计算过程命名为:神经⽹络;

衍生出来的有卷积神经⽹络——CNN、循环神经⽹络——RNN

5我们常说的模型训练,指的是什么?

指的是将收集来的数据集与选定的学习模型进⾏匹配训练的过 程,后期通过参数调整(调参),添加正则化规则等操作,使得模型的输出结果尽可 能匹配上我们预期,因此,模型训练本质上来说是提⾼概率的⼀个过程;

1:训练过程

数据准备:需要收集并整理大量的相关数据作为训练集。这些数据应尽可能涵盖各种情况和变化,以提高模型的鲁棒性和准确性。同时,还需要对数据进行清洗、预处理等工作,以确保数据的质量和一致性。

选择模型架构:根据具体的任务和数据特点,选择合适的模型架构,如神经网络、决策树、支持向量机等。不同的模型架构具有不同的优缺点和适用范围,因此需要根据实际情况进行选择。

定义损失函数:损失函数用于衡量模型预测结果与真实标签之间的差异。常见的损失函数有均方误差、交叉熵损失等。通过最小化损失函数,模型可以不断调整自身的参数,以提高预测的准确性。

优化算法:使用优化算法来更新模型的参数,以最小化损失函数。常见的优化算法有随机梯度下降、Adagrad、Adadelta等。优化算法的选择和超参数的设置会对模型的训练效果产生重要影响。

训练迭代:将训练数据多次输入到模型中,并根据输出结果和真实标签计算损失值,然后使用优化算法更新模型的参数。这个过程会不断重复,直到模型的损失值收敛到一个较小的范围内或达到预设的训练轮数为止。

2:训练方法

监督学习:基于已知输入和输出数据进行训练,模型通过对大量标记的训练样本进行学习,从而能够对新的数据进行预测或分类。常见的监督学习任务包括分类、回归等。

无监督学习:不依赖于带标记的训练数据,而是让模型自行发现数据中的模式和结构。例如,聚类算法可以将相似的数据点归为一类,主成分分析可以降低数据的维度等。

半监督学习:结合了监督学习和无监督学习的特点,使用少量的标记数据和大量的未标记数据进行训练。模型首先在标记数据上进行初步训练,然后利用未标记数据进一步调整模型的参数,以提高模型的性能和泛化能力。

强化学习:通过智能体与环境的交互来学习最优的行为策略。智能体根据环境的状态采取相应的行动,并获得相应的奖励或惩罚,从而不断调整自己的行为策略,以最大化长期的累积奖励。

6什么是LLM、SLLM

LLM 是 "Large Language Model"(大型语言模型)的缩写,指的是基于大量文本数据训练的自然语言处理模型。这类模型能够理解和生成人类语言,广泛应用于文本生成、翻译、问答、摘要等任务。

SLLM 可能指 "Small Language Model"(小型语言模型),与大型语言模型(LLM)相对,指的是参数量较少、计算资源需求较低的语言模型。这类模型在资源有限的环境中更具实用性。广泛应用于移动设备、嵌入式系统、实时应用、特定领域任务

7什么是满血版,蒸馏版
在机器学习领域,满血版”和“蒸馏版通常用来描述模型的完整版和压缩版。以下是它们的区别:
满血版(完整版)
● 定义:指未经压缩或简化的原始模型,通常参数量大、性能强。
● 特点:
○ 高精度:在复杂任务上表现优异。
○ 高资源需求:需要大量计算资源和存储空间。
○ 训练时间长:训练过程耗时较长。
● 应用场景:适合计算资源充足、对性能要求高的任务,如研究、服务器端应用。
蒸馏版(压缩版)
● 定义:通过知识蒸馏等技术从完整版模型中压缩得到的小型模型。
● 特点:
○ 轻量化:参数量少,计算需求低。
○ 高效性:推理速度快,适合实时应用。
○ 性能接近:虽然精度可能略低,但在许多任务上表现接近完整版。

应用场景:适合资源有限的环境,如移动设备、嵌入式系统或实时应用。

8什么是训练模型、推理模型
1. 训练模型
训练模型:是指通过大量数据训练机器学习模型的过程。目标是让模型从数据中学习规律,调整参数以最小化预测误差。主要步骤包括:
● 数据准备:收集、清洗、标注数据,并将其分为训练集、验证集和测试集。
● 模型选择:根据任务选择合适的模型结构,如线性回归、决策树、神经网络等。
● 训练过程:使用训练数据,通过优化算法(如梯度下降)调整模型参数,减少损失函数的值。
● 验证与调优:用验证集评估模型性能,调整超参数或模型结构以防止过拟合。
2. 推理模型
推理模型:是指训练完成后用于实际预测的模型。推理阶段使用训练好的模型对新数据进行预测,主要步骤包括:
● 模型加载:加载训练好的模型及其参数。
● 输入数据:提供新数据作为输入。
● 预测输出:模型根据输入数据生成预测结果。
主要区别:
● 目的:训练模型旨在学习数据规律,推理模型用于实际预测。
● 数据使用:训练模型使用带标签的训练数据,推理模型使用新数据。
● 计算资源:训练模型通常需要更多计算资源和时间,推理模型则更注重效率和速度。
● 训练模型:通过数据学习规律,调整参数。
● 推理模型:使用训练好的模型进行实际预测。
这两个阶段共同构成了机器学习的完整流程。
9:DeepSeek技术详解
deepseek介绍:
DeepSeek(深度求索)是一家专注于人工智能技术研发的公司,致力于推动通用人工智能(AGI)的发展。它通过在大模型、多模态理解和行业应用等领域的技术创新,打造高效、智能且可落地的 AI 解决方案,赋能各行各业。
deepseek目前模型
技术创新
模型版本
发布时间
Deepseek MoE 架构
DeepSeek-MOE
2024年1月
Group Relative Policy Optimization(GRPO,群体相对策略优化)
DeepSeek-Math
2024年4月
Multi-Head Latent Attention(MLA,多头隐式注意力)
DeepSeek-V2
2024年6月
Multi-Token Prediction(MTP,多令牌预测)
DeepSeek-V3
2024年12月
AI Infra相关(以训练加速为主,如FP8混合精度训练)
DeepSeek-V3
2024年12月
通过强化学习显著提升模型推理能力,R1-Zero在AIME 2024等推理基准测试中达到OpenAI-o1-0912的水平
DeepSeek-R1-Zero
2025年1月
使用冷启动-强化学习(推理场景)-SFT-强化学习(全场景)四阶段训练,R1模型达到OpenAI-o1-1217的水平
DeepSeek-R1
2025年1月
将R1推理能力蒸馏到小的稠密模型
DeepSeek-R1-Distill[5]
2025年1月
详细解读DeepSeek-R1-Zero、DeepSeek-R1、DeepSeek-R1-Distill

构建这两个模型的目标是相似的,都是为了提升模型的推理能力。特别是在数学、代码和复杂问题解决方面,但它们确实还是有一些不同。简单来说,DeepSeek-R1 是一个更成熟、更实用的版本,而 DeepSeek-R1-Zero 是一个探索性的“纯强化学习”模型。DeepSeek-R1-Zero 完全依靠强化学习(RL)进行训练,没有经过监督微调(SFT)。也就是说,Zero 模型在训练时,是自己在探索可靠的推理方式。

DeepSeek-R1-Zero模型解读:(首个纯强化学习的推理大模型)

DeepSeek-R1-Zero 直接在基础模型上应用强化学习,不使用任何冷数据进行微调(SFT)。 为了训练 DeepSeek-R1-Zero,deepseek 采用了一种基于规则的奖励系统,该系统主要由两种奖励组成:

(1)准确率奖励:准确率奖励模型评估响应是否正确。例如,在具有确定性结果的数学问题中,模型需要以指定的格式(box)提供最终答案,从而能够通过基于规则的验证来可靠地确认正确性。同样,对于 LeetCode 问题,可以使用编译器根据预定义的测试用例生成反馈。

(2)格式奖励: 除了准确性奖励模型,还采用了一种格式奖励模型,要求模型将其思考过程放在 ‘’ 和 ‘’ 标签之间。

整个强化学习过程的核心可以拆解为以下几个部分:

(1)策略更新(Policy Optimization)

这一过程让 AI 自己生成多个答案,并计算每个答案的得分(比如正确率),通过奖励机制(Reward Function),告诉 AI 哪种推理方式更有效。AI 通过不断调整策略,学习到了更好的推理方式。

(2)奖励建模(Reward Modeling)

这一步骤主要有两种奖励:准确性奖励和格式奖励。

准确性奖励(Accuracy Reward):如果 AI 生成的答案正确,就给它更高的分数。比如在数学推理任务中,可以直接用答案对错作为奖励标准。

格式奖励(Format Reward):如果 AI 以正确的逻辑方式表达推理过程,也会得到奖励。

例如 DeepSeek-R1-Zero 需要在 <think> 标签中写推理过程,在 <answer> 标签中写最终答案,这样可以确保 AI 形成清晰的推理逻辑。

(3)自我进化(Self-Evolution)

DeepSeek-R1-Zero 在强化学习的过程中,逐步学会了一些高阶推理能力,比如:

1、自我验证(Self-Verification):AI 在得出答案后,会自己检查逻辑是否合理。

2、反思能力(Reflection):如果推理过程中发现问题,AI 会重新审视自己的思路。

3、  生成更长的推理链(Longer Chain-of-Thoughts):从最开始只可以进行 2-3 步的简单推理,到可以进行 10 步以上的复杂推理。

经过以上强化学习技术的加持,Zero 的训练结果如何呢?

答案是:经过数千步的强化学习训练,DeepSeek-R1-Zero 在多个推理任务上的表现都得到了显著提升。

这些结果证明,即使完全不依赖人工标注数据,仅靠强化学习,AI 也能学会复杂的推理能力。也就是说,Zero他这个模型证明了这件事:通过强化学习,让模型学会了复杂的推理能力,这是一大创新。

大多数 AI 训练方法都依赖人类提供的大量标注数据,但 DeepSeek-R1-Zero 选择了“让 AI 自己探索推理规律”。

在强化学习的过程中,DeepSeek-R1-Zero 自己学会了一些意想不到的能力,比如 DeepSeek-R1-Zero 出现了研究人员称之为“aha 时刻(Aha Moment)”的现象,观察到 AI 在训练过程中会突然“顿悟”,自发地改变推理方式,让答案更加精准。例如,在解数学方程时,AI 在某个训练阶段开始学会重新审视自己的答案,并进行修正。

DeepSeek-R1模型解读:(冷启动强化学习)

DeepSeek-R1 是一款基于混合专家系统(MoE)架构的大规模语言模型,专注于高效处理复杂任务和长上下文理解。其核心目标是实现更高的性能、更低的计算成本以及更广泛的应用场景。DeepSeek-R1 不仅在多语言理解、数学推理和代码生成等任务中表现出色,还通过技术创新解决了长上下文处理中的关键难题。DeepSeek-R1是推理大模型。

DeepSeek-R1 在强化学习之前,先加入了冷数据进行微调(SFT),让模型从一开始就具备基础的语言和推理能力,之后再用强化学习优化推理能力。以下是详细阶段

DeepSeek-R1 使用了冷启动 + 多阶段训练的方式:

阶段1:使用少量高质量的 CoT 数据进行冷启动,预热模型。

阶段2:进行面向推理的强化学习,提升模型在推理任务上的性能。

阶段3:使用拒绝采样和监督微调,进一步提升模型的综合能力。

阶段4:再次进行强化学习,使模型在所有场景下都表现良好。

DeepSeek-R1 使用冷启动数据的主要目的是为了解决 DeepSeek-R1-Zero 在训练早期出现的训练不稳定问题。相比于直接在基础模型上进行 RL,使用少量的 SFT 数据进行冷启动,可以让模型更快地进入稳定训练阶段:

可读性:冷启动数据使用更易于理解的格式,输出内容更适合人类阅读,避免了 DeepSeek-R1-Zero 输出的语言混合、格式混乱等问题。

潜在性能:通过精心设计冷启动数据的模式,可以引导模型产生更好的推理能力。

稳定训练:使用 SFT 数据作为起始点,可以避免 RL 训练早期阶段的不稳定问题。

DeepSeek-R1-Distill模型解读:

为了获得更高效的小模型,并使其具有 DeekSeek-R1 的推理能力,直接对 Qwen 和 Llama 等开源模型进行了微调,使用的是上面 SFT DeepSeek-R1 的80万数据。研究结果表明,这种直接蒸馏方法显著提高了小模型的推理能力。

为什么会有蒸馏模型?

(1)硬件需求高:难以在普通设备(如手机、边缘服务器)上运行。

(2)推理时间长:处理速度较慢,影响用户体验。

(3)成本高昂:无论是训练还是部署,都需要大量计算资源支持。

模型蒸馏的核心思想是将“大模型”中的知识提取出来,传授给一个更小、更轻量的学生模型。这种知识传递的过程类似于人类的教学:

教师模型(Teacher Model):扮演“学霸老师”的角色,掌握全面的知识。

学生模型(Student Model):作为“学生”,需要快速掌握核心知识点。

通过蒸馏技术,学生模型可以继承教师模型的精华,同时摆脱其臃肿的身躯。这种方式既保持了高性能,又大幅降低了资源消耗。

在很多实际场景中,大模型的应用面临以下挑战:

(1)移动端部署:需要轻量化模型。

(2)实时推理:要求快速响应。

(3)成本控制:希望降低算力开销。

模型蒸馏技术正好能够满足这些需求,为AI技术的普惠发展提供了新的可能。

知识蒸馏(KD)的基本原理:

知识蒸馏是一种迁移学习的技术。具体来说:

教师模型:首先需要在大规模数据上进行训练,掌握丰富的知识点。

蒸馏过程:教师模型对输入样本给出预测结果和概率分布(软标签)。学生模型通过模仿教师的输出,学习到更细粒度的知识。学生模型:经过蒸馏后,能够掌握接近甚至超越教师模型的能力。

其他蒸馏技术

除了KD,还有几种其他技术可以改进LLM蒸馏过程:

数据增强:这涉及使用教师模型生成额外的训练数据。通过创建更大、更全面的数据集,学生可以接触到更广泛的场景和示例,从而提高其泛化性能。

中间层蒸馏:这种方法不仅关注最终输出,还将教师模型的中间层知识转移到学生模型。通过从这些中间表示中学习,学生可以捕捉更详细、更有结构的信息,从而实现更好的整体性能。

多教师蒸馏:学生模型可以从多个教师模型中学习。通过整合来自不同教师的知识,学生可以实现更全面的理解和更强的鲁棒性,因为它整合了不同的观点和见解。

蒸馏模型优势:

①:减小模型大小,空间,资源占用少

②:更快的推理速度

③:降低计算成本

④:更广泛的可访问性和部署,更灵活,更易于访问

蒸馏模型劣势:

①:信息损失:潜在的知识损失。在蒸馏过程中,教师模型的一些细微信息和特征可能无法被学生模型完全捕捉,从而导致性能下降。在需要深度理解或专门知识的任务中,这个问题可能尤为突出。

②:泛化能力:蒸馏后的模型可能在某些任务上表现良好,但在其他任务上表现不佳,因此需要在多种数据集上验证其稳定性。

Deepseek模型对硬件要求:
Deepseek-R1模型

版本

CPU
内存

硬盘

显卡

1.5B版本
CPU≥4
8GB+
3GB+ 存储空间(模型文件约 1.5-2GB)
非必需(纯 CPU 推理),若 GPU 加速可选 4GB+ 显存(如 GTX 1650)
7B版本
CPU≥8
16GB+
8GB+(模型文件约 4-5GB)
推荐 8GB+ 显存(如 RTX 3070/4060)
8B版本
CPU≥10
20GB+
8GB+
推荐 8GB+ 显存(如 RTX 3070/4060)
14B版本
CPU≥12
32GB+
15GB+
16GB+ 显存(如 RTX 4090 或 A5000)
32B版本
CPU≥16
64GB+
30GB+
24GB+ 显存(如 A100 40GB 或双卡 RTX 3090)
70B版本
CPU≥32
128GB+
70GB+
多卡并行(如 2x A100 80GB 或 4x RTX 4090)
国产芯片公司Deepseek模型适配情况:
国产显卡目前适配的有:华为昇腾910(Ascend)、寒武纪(Cambricon)
10:国产大模型详细介绍
模型名称
研发机构
特点
应用场景
文心一言
百度
多模态生成、行业知识深度融合
营销文案、代码生成
通义千问
阿里云
超大规模参数(10万亿级)、开源社区支持
金融分析、智能客服
星火认知
科大讯飞
语音交互强、低延迟响应
教育、会议转录
紫东太初
中科院自动化所
多模态统一建模(文本+图像+视频)
工业质检、影视创作
11:应用场景
以下是DeepSeek的一些主要应用场景:
1. 企业服务
● 智能客服:通过自然语言处理技术,提供高效的自动回复和问题解决方案,提升客户满意度。
● 数据分析:利用机器学习分析企业数据,提供洞察和预测,支持决策。
● 自动化流程:通过AI自动化重复性任务,提高效率并减少错误。
2. 教育
● 个性化学习:根据学生的学习数据,提供定制化的学习建议和资源。
● 智能辅导:通过AI实时解答学生问题,提供个性化辅导。
● 自动化评估:自动批改作业和考试,减轻教师负担。
3. 医疗
● 疾病诊断:通过分析医疗数据,辅助医生进行疾病诊断。
● 药物研发:利用AI加速药物筛选和研发过程。
● 健康管理:通过分析个人健康数据,提供个性化的健康建议。
4. 金融
● 风险管理:通过分析金融数据,识别潜在风险并提供预警。
● 智能投顾:根据客户的风险偏好和投资目标,提供个性化的投资建议。
● 欺诈检测:利用机器学习检测异常交易,防止欺诈行为。
5. 零售
● 个性化推荐:根据用户的购买历史和行为,提供个性化的产品推荐。
● 库存管理:通过分析销售数据,优化库存管理,减少库存积压。
● 客户洞察:分析客户行为数据,提供精准的营销策略。
6. 智能制造
● 质量控制:通过图像识别和机器学习,实时监控生产质量。
● 预测性维护:分析设备数据,预测设备故障并进行维护。
● 生产优化:优化生产流程,提高效率并降低成本。
7. 自动驾驶
● 环境感知:通过传感器和AI技术,实时感知周围环境。
● 路径规划:根据实时路况,规划最优行驶路径。
8. 内容创作
● 自动生成内容:通过自然语言生成技术,自动生成新闻、报告等内容。
● 图像和视频处理:利用AI技术进行图像和视频的编辑、增强和生成。
● 音乐创作:通过AI生成音乐作品,辅助音乐创作。

AI基础知识扫盲.pdf

1.04 MB, 下载次数: 105

打赏鼓励作者,期待更多好文!

打赏
1人已打赏

发表新帖
热门标签
全部标签>
【 社区to talk】
高手请过招
安装部署配置
新版本体验
每日一问
产品连连看
GIF动图学习
网络基础知识
功能体验
社区新周刊
2023技术争霸赛专题
标准化排查
秒懂零信任
技术笔记
纪元平台
畅聊IT
解决方案
VPN 对接
技术晨报
安全效果
云化安全能力
信服课堂视频
答题自测
技术圆桌
文档捉虫
每周精选
场景专题
西北区每日一问
产品解析
专家问答
在线直播
MVP
升级
安全攻防
上网策略
测试报告
日志审计
问题分析处理
流量管理
每日一记
运维工具
用户认证
原创分享
sangfor周刊
项目案例
SANGFOR资讯
专家分享
技术顾问
信服故事
SDP百科
功能咨询
终端接入
授权
设备维护
资源访问
地址转换
虚拟机
存储
迁移
排障笔记本
产品预警公告
玩转零信任
S豆商城资讯
技术争霸赛
「智能机器人」
追光者计划
卧龙计划
华北区拉练
天逸直播
以战代练
平台使用
技术盲盒
山东区技术晨报
齐鲁TV
华北区交付直播
2024年技术争霸赛
北京区每日一练
故障笔记
排障那些事
升级&主动服务
高频问题集锦
POC测试案例
全能先锋系列
专家说
热门活动
产品动态
行业实践
关键解决方案

本版达人

新手89785...

本周建议达人

YangZhe...

本周分享达人