Logo for AiToolGo

人工智能基础学习指南:从入门到精通

In-depth discussion
Easy to understand
 0
 0
 1
本文档是一份面向AI新手构建的可视化入门指南,全面涵盖了人工智能(AI)、机器学习(ML)和深度学习(DL)的核心概念。内容深入浅出地解析了监督学习、无监督学习和强化学习等关键算法,并介绍了神经网络、卷积神经网络(CNN)、循环神经网络(RNN)以及Transformer等模型。此外,文章还探讨了生成式AI(如LLMs和扩散模型)以及AI安全与伦理,包括针对机器学习和大型语言模型的攻击类型与防御策略,旨在为学习者提供扎实的基础知识和前沿视野。
  • main points
  • unique insights
  • practical applications
  • key topics
  • key insights
  • learning outcomes
  • main points

    • 1
      全面覆盖AI基础概念、机器学习算法、深度学习模型及AI安全伦理。
    • 2
      结构清晰,从基础概念到进阶主题,逻辑性强。
    • 3
      包含对LLMs和扩散模型等前沿生成式AI技术的介绍。
  • unique insights

    • 1
      对AI、ML、DL三者关系的深入阐述,帮助理解其层级和协同作用。
    • 2
      详细列举了OWASP ML Top 10和LLM Top 10攻击,并解释了提示注入和越狱技术,提供了AI安全方面的实践视角。
  • practical applications

    • 为AI初学者提供了一个系统性的学习路径,涵盖了从基础理论到前沿技术和安全实践的广泛内容,有助于建立坚实的AI知识体系。
  • key topics

    • 1
      AI, ML, DL Fundamentals
    • 2
      Supervised, Unsupervised, Reinforcement Learning
    • 3
      Neural Networks, CNNs, RNNs, Transformers
    • 4
      Generative AI (LLMs, Diffusion Models)
    • 5
      AI Security and Red Teaming
  • key insights

    • 1
      Comprehensive visual learning guide for AI newcomers.
    • 2
      Detailed explanation of AI, ML, and DL interrelationships.
    • 3
      In-depth exploration of AI security threats and defense mechanisms for ML and LLMs.
  • learning outcomes

    • 1
      Understand the fundamental concepts of Artificial Intelligence, Machine Learning, and Deep Learning.
    • 2
      Differentiate between supervised, unsupervised, and reinforcement learning paradigms and their applications.
    • 3
      Gain an overview of key neural network architectures and generative AI models.
    • 4
      Recognize common AI security threats and basic defense strategies.
examples
tutorials
code samples
visuals
fundamentals
advanced content
practical tips
best practices

引言:AI、ML与DL的基石

欢迎来到人工智能(AI)的基础学习之旅。本指南旨在为初学者提供一个清晰、可视化的入门路径,深入理解机器学习(ML)和深度学习(DL)的核心概念。我们将从AI的宏观愿景出发,逐步深入到具体的算法原理、数学基础以及前沿的AI安全与伦理议题。无论您是技术爱好者还是行业新兵,都能在这里找到通往AI世界的钥匙。 人工智能(AI)是一个广阔的领域,致力于开发能够执行类人智能任务的系统。其核心目标是让机器具备认知能力,能够理解、学习、推理和行动。机器学习(ML)作为AI的一个重要子领域,专注于构建能够从数据中学习并改进性能的系统,而无需显式编程。深度学习(DL)则是ML的一个分支,它利用多层神经网络来自动学习数据中的复杂特征表示,尤其在处理非结构化数据方面表现出色。 本指南将系统性地梳理AI、ML、DL之间的关系,并详细介绍它们在各个领域的应用。同时,我们将回顾AI学习中必不可少的数学基础,包括代数、概率论和线性代数。随后,我们将深入探讨监督学习、无监督学习和强化学习这三大主要的机器学习范式,并对其中的代表性算法进行解析。为了跟上技术发展的步伐,我们还将介绍深度学习的进阶内容,包括各种神经网络架构、生成式AI模型(如LLMs和扩散模型)。最后,我们将重点关注AI安全与伦理,探讨如何评估和防御机器学习系统的潜在风险,以及红队测试的重要性。 通过本指南的学习,您将能够: * 理解AI、ML和DL的基本概念及其相互关系。 * 掌握AI学习所需的关键数学知识。 * 熟悉监督学习、无监督学习和强化学习的核心算法和应用场景。 * 了解深度学习模型(如神经网络)的工作原理。 * 认识生成式AI的强大能力及其潜在应用。 * 理解AI安全的重要性,并了解常见的攻击类型和防御策略。 让我们一起踏上这段激动人心的AI探索之旅吧!

AI、ML与DL的核心概念解析

人工智能(AI)是构建能够模拟人类智能行为的系统的学科。其目标是让机器能够感知、推理、学习和行动。AI涵盖了广泛的子领域,包括自然语言处理(NLP)、计算机视觉、机器人学和专家系统等。AI的应用正在深刻地改变着医疗、金融、网络安全等众多行业,通过提升决策效率、支持数据分析和实现自动化来解决复杂问题。 机器学习(ML)是AI的一个核心分支,它赋予系统从数据中学习的能力,而无需进行明确的编程。ML算法利用统计技术来识别数据中的模式,并通过分析大量数据集来不断优化自身性能。ML是实现AI智能的关键技术之一,其主要类型包括: * **监督学习**:从带有标签的数据中学习,算法通过分析输入与已知输出之间的关系来建立预测模型。常见应用包括图像分类、垃圾邮件检测和欺诈检测。 * **无监督学习**:从无标签的数据中学习,算法旨在挖掘数据内在的结构或模式。应用领域包括客户细分、异常检测和降维。 * **强化学习**:通过与环境互动,在试错过程中学习。算法根据获得的奖励或惩罚来优化其行为策略。常见应用包括游戏AI、机器人控制和自动驾驶。 深度学习(DL)是ML的一个子领域,它利用多层神经网络来自动学习数据中的复杂特征。DL模型能够从海量数据中识别出高度抽象的模式,尤其擅长处理图像、文本和语音等非结构化或高维数据。其主要特征包括分层特征学习、端到端学习和出色的可扩展性。常用的神经网络类型包括卷积神经网络(CNN,适用于图像)、循环神经网络(RNN,适用于序列数据)和Transformer(尤其适用于NLP)。 **AI、ML与DL的关系**可以形象地理解为嵌套的集合:DL是ML的子集,而ML又是AI的子集。ML和DL共同构成了现代AI的核心驱动力,它们使机器能够识别模式、提取特征并做出智能决策。例如,计算机视觉的进步很大程度上得益于监督学习与CNN的结合;自然语言处理的飞跃则离不开传统ML与DL模型(如Transformer)的协同作用。 ML和DL的结合极大地增强了AI的能力,推动了自动驾驶、机器人学等前沿技术的发展,并不断拓展人类能力的边界。这种协同效应是AI技术持续进步的关键。

人工智能学习的数学基石

深入理解人工智能(AI)需要扎实的数学基础。本节将回顾AI学习中至关重要的数学概念,为后续的学习打下坚实基础。 **1. 基本算术运算与代数符号** * **基本运算**:加法(+)、减法(-)、乘法(*)、除法(/)是所有数学运算的基础。 * **代数符号**: * 下标符号(如 `x_t`):常用于表示序列中的元素或时间步。 * 上标符号(如 `xⁿ`):表示指数运算。 * 范数(`||...||`):衡量向量的大小或长度。 * 求和符号(`Σ`):表示一系列项的总和。 **2. 对数与指数** * **对数**:如以2为底的对数(`log₂(8) = 3`),表示2的多少次方等于8。自然对数(`ln`)以e为底。 * **指数函数**:如 `e²` 或 `2³`,表示一个数的重复乘法。 **3. 矩阵与向量运算** * **矩阵-向量乘法** (`A * v`) 和**矩阵-矩阵乘法** (`A * B`):是线性代数的核心,广泛应用于线性变换和深度学习中的权重计算。 * **转置** (`Aᵀ`):交换矩阵的行和列。 * **逆矩阵** (`A⁻¹`):满足 `A * A⁻¹ = I`(单位矩阵)的矩阵,用于解线性方程组。 **4. 集合论** * **基数** (`|S|`):集合中元素的数量。 * **并集**(`∪`)和**交集**(`∩`):组合和重叠集合的运算。 * **补集**(`Aᶜ`):在一个全集中,不属于集合A的元素。 **5. 比较运算符** * `>=` (大于或等于), `<=` (小于或等于), `==` (相等), `!=` (不等):用于条件判断和逻辑运算。 **6. 特征值与特征向量** * **特征值**(`λ`)和**特征向量**:在矩阵变换中,特征向量的方向保持不变,特征值表示其缩放比例。它们在降维技术(如PCA)中至关重要,满足 `A * v = λ * v`。 **7. 函数与概率** * **函数**(`f(x)`):将输入映射到输出的规则。 * **条件概率**(`P(x | y)`):在已知事件y发生的情况下,事件x发生的概率。 * **期望**(`E[...]`):随机变量的平均值。 * **方差**(`Var(X)`):衡量数据点相对于均值的离散程度。 掌握这些数学概念是理解AI算法原理、进行模型设计和优化的基础。在后续的学习中,我们将看到这些数学工具如何被应用于构建智能系统。

监督学习:从标记数据中学习

监督学习是机器学习中最常见的一种范式,其核心在于利用带有标签的数据来训练模型,使其能够对新的、未见过的数据进行预测。简单来说,就是通过“老师指导”的方式进行学习,模型从已知的输入-输出对中学习映射关系。 **监督学习的工作原理** 监督学习算法接收一组“训练数据”,这些数据包含输入特征(描述数据的属性)和对应的输出标签(我们希望模型预测的结果)。算法通过分析这些标记数据,不断调整其内部参数,以最小化预测值与真实标签之间的误差。一旦模型训练完成,它就可以用来预测新数据的标签。 监督学习主要分为两大类任务: 1. **分类(Classification)**:预测离散的类别标签。例如,判断一封邮件是垃圾邮件还是非垃圾邮件;识别一张图片中的动物是猫还是狗。 2. **回归(Regression)**:预测连续的数值。例如,预测房屋的价格;预测明天的气温;估算网站的访客数量。 **核心流程图** ``` +--------------+ +--------------+ +----------+ | 训练数据 | --> | 模型训练 | --> | 预测 | | (特征+标签) | | (参数优化) | | (新数据) | +--------------+ +--------------+ +----------+ ``` **监督学习的核心概念** * **训练数据**:包含输入特征和输出标签的数据集。数据的质量和数量直接影响模型的性能。 * **特征(Features)**:描述数据的可测量属性,是模型的输入。 * **标签(Labels)**:训练数据对应的已知结果,是模型需要预测的目标。 * **模型(Model)**:描述特征与标签之间关系的数学表达,可以是简单的线性模型,也可以是复杂的神经网络。 * **训练(Training)**:使用训练数据优化模型参数,以减少预测误差的过程。 * **预测(Prediction)**:使用训练好的模型对新数据进行标签预测。 **模型评估与优化** 为了确保模型的泛化能力(即在未见过的数据上表现良好),我们需要进行模型评估和优化: * **评估指标**: * **准确率(Accuracy)**:正确预测的样本占总样本的比例。 * **精确率(Precision)**:在所有被预测为正例的样本中,真正是正例的比例。 * **召回率(Recall)**:在所有实际为正例的样本中,被正确预测为正例的比例。 * **F1分数(F1-Score)**:精确率和召回率的调和平均,综合考虑了两者。 * **优化技术**: * **交叉验证(Cross-Validation)**:将数据分成多份,轮流用其中一份作为测试集,其余作为训练集,以更全面地评估模型性能。 * **正则化(Regularization)**:通过在损失函数中添加惩罚项来限制模型复杂度,防止过拟合(如L1和L2正则化)。 * **过拟合防控**:模型在训练数据上表现极好,但在新数据上表现差。 * **欠拟合检测**:模型过于简单,无法捕捉数据中的基本模式。 **常见的监督学习算法** 我们将深入探讨以下几种经典的监督学习算法: * **线性回归(Linear Regression)**:用于预测连续值。 * **逻辑回归(Logistic Regression)**:用于二分类任务。 * **决策树(Decision Trees)**:适用于分类和回归,结构直观。 * **朴素贝叶斯(Naive Bayes)**:基于概率的分类算法,尤其适用于文本分类。 * **支持向量机(SVM)**:在高维空间和复杂关系中表现优异的分类器。 通过理解这些算法的原理和应用,您将能够为各种实际问题选择和构建合适的监督学习模型。

无监督学习:探索未标记数据的奥秘

无监督学习是机器学习的另一大重要分支,它专注于从没有预定义标签的数据中发现隐藏的模式、结构和关联。与监督学习不同,无监督学习不需要“老师”的指导,而是让算法自行探索数据的内在规律。 **算法工作原理** 无监督学习算法通过分析数据的固有特征来识别相似性、差异性和潜在模式。其主要任务包括: * **聚类分析(Clustering)**:将相似的数据点自动分组到不同的簇(Cluster)中。例如,根据消费行为将用户划分为不同的群体;按主题对文献进行分类。 * **维度约简(Dimensionality Reduction)**:降低数据的特征数量(维度),同时尽可能保留核心信息。这有助于简化模型、提高计算效率并可视化高维数据。例如,对报告进行提炼摘要,或进行图像的有损压缩。 * **异常检测(Anomaly Detection)**:识别显著偏离常规模式的数据点(离群值)。这些异常点可能预示着重要的事件或潜在的问题,如金融风控中的伪钞识别或信用卡反欺诈。 在标注数据稀缺或成本高昂的情况下,无监督学习尤其具有价值,它能够从原始数据中提取有用的信息,为后续的分析或监督学习任务提供基础。 **核心概念体系** * **无标注数据**:无监督学习的基础,算法依赖数据的内在特征。 * **相似性度量**:量化数据点之间相似程度的工具,如欧氏距离、余弦相似度、曼哈顿距离等。 * **聚类特性评估**:衡量聚类质量的指标,包括类内相似度(内聚度)和类间差异度(分离度)。 * **维度问题**:高维数据带来的挑战(维度灾难),以及寻找数据的“本征维度”(真实信息含量)。 * **异常值处理**:识别非典型数据点,区分错误(需剔除)或特殊现象。 * **特征标准化**:确保不同量纲的特征具有可比性,常用的方法有极差归一化和Z-score标准化。 **主要无监督学习算法** 我们将深入探讨以下几种核心的无监督学习算法: * **K-Means聚类**:一种简单高效的聚类算法,将数据划分为K个簇。 * **主成分分析(PCA)**:一种经典的降维技术,通过线性变换找到数据方差最大的方向。 * **异常检测算法**:识别数据中的离群点,如基于统计、聚类或机器学习的方法。 通过学习无监督学习,您将能够从海量数据中挖掘出有价值的洞察,发现隐藏的结构,并为更复杂的AI应用奠定基础。

深度学习:神经网络的强大力量

深度学习(DL)是机器学习的一个强大分支,它利用多层神经网络(Neural Networks)来自动学习数据中的复杂特征表示。与传统的机器学习方法相比,深度学习在处理非结构化数据(如图像、文本、语音)方面展现出卓越的性能,并在许多领域达到了最先进(SOTA)的水平。 **神经网络** 神经网络是深度学习的基础,它模仿人脑神经元的结构和功能。一个神经网络由多个相互连接的“神经元”组成,这些神经元组织成层(Layers)。 * **神经元(Neuron)**:神经网络的基本计算单元,接收输入信号,进行加权求和,并通过激活函数产生输出。 * **层次结构**:神经网络通常包含一个**输入层**(接收原始数据)、一个或多个**隐藏层**(进行特征提取和转换)以及一个**输出层**(产生最终预测结果)。多层结构使得网络能够学习复杂的非线性关系。 * **激活函数(Activation Function)**:引入非线性,使神经网络能够学习复杂的模式。常见的激活函数包括ReLU、Sigmoid、Tanh和Softmax。 **训练神经网络** 训练神经网络的目标是调整其内部的权重(Weights)和偏置(Biases),以最小化预测输出与真实目标之间的误差。这个过程通常通过以下两种算法实现: * **反向传播(Backpropagation)**:一种高效计算损失函数关于网络参数梯度的算法。它从输出层开始,将误差逐层向前传播,计算每个参数对总误差的贡献。 * **梯度下降(Gradient Descent)**:一种优化算法,通过迭代地沿着损失函数负梯度方向更新参数,以找到损失函数的最小值。 **常见的神经网络架构** * **卷积神经网络(CNNs)**:特别适用于处理网格状数据,如图像。CNN通过卷积层和池化层有效地提取空间层次特征。 * **循环神经网络(RNNs)**:设计用于处理序列数据,如文本和时间序列。RNN通过其循环连接能够“记忆”历史信息。 * **长短期记忆网络(LSTM)**和**门控循环单元(GRU)**是RNN的改进版本,能够更好地解决梯度消失问题,捕捉长期依赖关系。 **深度学习的变革性影响** 深度学习在计算机视觉(图像分类、物体检测)、自然语言处理(情感分析、机器翻译、文本生成)和语音识别等领域取得了突破性进展。其强大的特征学习能力和端到端学习的特性,极大地推动了人工智能技术的进步,并催生了许多创新应用。

生成式人工智能:创造新内容

生成式AI(Generative AI)是人工智能领域一个令人兴奋的分支,它专注于创建原创内容,而非仅仅进行分类或预测。这些内容可以包括文本、图像、音乐、代码,甚至视频。生成式AI的核心在于学习数据的潜在模式和结构,并利用这些知识来生成新的、逼真的样本。 **生成式人工智能的工作原理** 生成式AI模型通常基于复杂的神经网络架构,通过在海量数据上进行训练来学习数据的统计属性。训练完成后,模型能够根据给定的输入(如文本提示)或随机采样来生成新的内容。 **生成式人工智能模型的类型** * **生成对抗网络(GANs)**:由一个生成器(Generator)和一个判别器(Discriminator)组成,两者通过对抗的方式进行训练,以生成越来越逼真的数据。 * **变分自编码器(VAEs)**:学习数据的压缩表示(潜在空间),并从中采样生成新数据。 * **自回归模型**:逐个生成序列中的后续元素,常用于文本生成。 * **扩散模型(Diffusion Models)**:通过逐步向数据添加噪声,然后学习如何逆转这个过程来生成高质量的新数据,尤其在图像生成领域表现出色。 **重要的生成式人工智能概念** * **潜在空间(Latent Space)**:数据的压缩表示,捕捉了数据的基本特征和关系。 * **采样(Sampling)**:从模型学习到的数据分布中提取新内容的过程。 * **模式崩塌(Mode Collapse)**:生成器只学会产生有限种类的输出,缺乏多样性。 * **评估指标**:衡量生成内容质量的标准,如IS(Inception Score)、FID(Fréchet Inception Distance)、BLEU分数等。 **大型语言模型(LLMs)** 大型语言模型(LLMs)是生成式AI在文本领域最突出的代表。它们能够理解和生成类人文本,常基于Transformer架构,并在海量文本数据上进行训练。LLMs的特点是规模庞大、强大的学习能力和出色的语境理解能力。 * **工作原理**:LLMs利用Transformer架构,通过**自注意力机制**来计算词语之间的相关性,并能并行处理输入,提高效率。 * **应用**:LLMs可用于文本生成、问答、摘要、翻译、代码编写等多种任务。 **扩散模型(Diffusion Models)** 扩散模型是当前生成高质量图像的领先技术。它们通过一个逐步加噪和去噪的过程来学习数据分布。 * **工作原理**:模型首先学习如何向图像添加噪声,直到变成纯噪声;然后,它学习如何逆转这个过程,从噪声开始逐步去噪,最终生成新的图像。 * **条件生成**:通过集成文本编码器,扩散模型可以根据文本提示(如“一只穿着宇航服的猫”)生成相应的图像。 生成式AI正在以前所未有的方式改变内容创作和人机交互,其潜力和应用前景无限广阔。

AI安全与伦理:构建可信赖的AI系统

随着人工智能(AI)在各行各业的广泛应用,确保AI系统的安全性、可靠性和伦理合规性变得至关重要。AI安全与伦理旨在识别和防范AI系统可能带来的风险,并确保其发展符合人类的价值观和利益。 **什么是红队(Red Teaming)?** 红队测试是一种高级的对抗性模拟,旨在模仿真实攻击者的战术、技术和过程(TTPs),以全面评估AI系统的防御能力。与传统的渗透测试或漏洞评估不同,红队评估更侧重于模拟长期、复杂的攻击场景,并可能涉及技术漏洞、社会工程学等多种手段。由于AI系统的复杂性,其面临的漏洞也更加独特,因此红队评估对于发现潜在的、难以预料的风险尤为重要。 **机器学习系统面临的独特漏洞与攻击** OWASP(开放Web应用安全项目)发布了针对机器学习系统的十大安全风险(ML Top 10),以及针对大型语言模型(LLM)的十大安全风险(LLM OWASP Top 10)。这些风险揭示了AI系统在数据、模型和部署过程中可能存在的脆弱性: * **输入操纵(Input Manipulation)**:修改输入数据以诱导模型产生错误输出。 * **数据投毒(Data Poisoning)**:在训练数据中注入恶意数据,损害模型性能或植入后门。 * **模型反演(Model Inversion)**:重建输入信息,可能泄露用户隐私。 * **成员推理(Membership Inference)**:判断某个数据点是否曾用于训练模型,同样涉及隐私泄露。 * **模型窃取(Model Stealing)**:通过查询模型来复制或窃取其知识产权。 * **AI供应链攻击(AI Supply Chain Attacks)**:利用数据源、库或预训练模型中的漏洞。 * **提示注入(Prompt Injection)**:(针对LLM)通过精心设计的输入来操纵LLM的行为,绕过安全限制。 * **不安全输出处理(Insecure Output Handling)**:LLM的输出被不当处理,导致下游系统出现漏洞(如XSS、SQL注入)。 **提示注入与越狱(Jailbreaking)** 提示注入是针对大型语言模型(LLM)的一种常见攻击。由于LLM通常将对话历史和用户输入合并处理,攻击者可以利用这一点,通过在用户提示中嵌入恶意指令,诱导LLM执行非预期或有害的操作,如泄露敏感信息、生成不当内容等。 越狱(Jailbreaking)是指绕过LLM的安全、道德和内容策略限制。攻击者通常通过提示注入技术,使用诸如“DAN (Do Anything Now)”、角色扮演、虚构场景等特殊提示来覆盖LLM的预期行为,使其能够生成被禁止的内容。 **防御措施** 应对AI安全风险需要多方面的策略: * **提示工程**:虽然不能完全防范注入,但可以指导模型行为。 * **过滤器和护栏模型**:实时检测和阻止恶意输入或输出。 * **限制LLM权限**:遵循最小特权原则,仅授予必要的权限。 * **模型微调与对抗性训练**:提高模型的鲁棒性和弹性。 * **安全的代码实践**:确保LLM输出被安全地处理。 构建可信赖的AI系统是一个持续的挑战,需要技术、策略和伦理的共同作用。

结论:AI的未来展望

本指南系统地介绍了人工智能(AI)、机器学习(ML)和深度学习(DL)的基础知识,从核心概念、数学原理到各类算法的深入解析,再到前沿的生成式AI和AI安全议题。我们希望通过这种可视化的学习路径,为初学者构建起坚实的AI知识框架。 AI技术正以前所未有的速度发展,其影响力已渗透到我们生活的方方面面。从智能助手到自动驾驶汽车,从医疗诊断到金融风控,AI正在重塑我们的世界。监督学习、无监督学习和强化学习等核心范式,以及神经网络、Transformer、扩散模型等先进架构,共同构成了AI能力的核心。 生成式AI的崛起,特别是大型语言模型(LLMs)的出现,更是将AI的能力推向了新的高度,使机器能够以前所未有的方式理解和创造内容。然而,伴随强大能力而来的是对AI安全和伦理的更高要求。红队测试、提示注入防御以及对模型偏见和隐私的关注,都表明了构建负责任、可信赖AI系统的紧迫性。 展望未来,AI的发展将更加注重: * **可解释性(Explainability)**:让AI的决策过程更加透明,便于理解和信任。 * **鲁棒性(Robustness)**:提高AI系统在面对未知或对抗性输入时的稳定性。 * **公平性(Fairness)**:消除AI模型中的偏见,确保其对所有人群都公平。 * **效率(Efficiency)**:开发更节能、更高效的AI模型和算法。 * **人机协作(Human-AI Collaboration)**:探索AI如何更好地辅助人类,增强人类的能力,而非取代。 学习AI是一个持续的过程。技术日新月异,保持好奇心和不断学习的态度是至关重要的。我们鼓励您在掌握基础知识后,继续探索更深入的主题,参与社区讨论,并尝试将所学知识应用于实际项目。 人工智能的未来充满无限可能。通过不断学习和负责任的创新,我们可以共同塑造一个更智能、更美好的未来。

 Original link: https://dmtomhl.github.io/Google-AI-Red-Team-Tutorial-ZH_CN/

Comment(0)

user's avatar

      Related Tools