介绍
本文是面向初学者的生成式人工智能系列的一部分,我们正在学习生成式人工智能的基础知识,一次一个简单的步骤。
为了便于掌握,我将整个系列分成了几个小部分。最多需要 15-20 分钟的学习时间。完成本系列后,您将对生成人工智能的基础知识及其各个方面有一个清晰的了解。
机器学习 (ML) — 从孩子的角度来看
在我们之前的博客中,在了解人工智能的同时,我们谈到了让机器人识别狗。想象一下,我们想让机器人能够识别多种动物。
为此,我们将向他展示各种狗、猫、兔子和其他动物的照片,并在每张照片上贴上 动物名称的标签。我们训练机器人根据大小、颜色、体型、声音等来识别动物。
训练完成后,机器人将能够识别我们训练他的这些动物。
所有的狗看起来都不一样。然而,一旦机器人看到了许多狗的照片,它就可以识别任何狗,即使它看起来并不完全像特定的图片。我们需要向机器人展示大量狗的照片。它看到的图片越多,效率就会越高。
这就是机器学习——通过提供大量示例图片(或任何其他信息)来教学机器人(或任何机器)。
总而言之,机器学习是:
-
人工智能的一个子集。
-
这使得机器(或计算机)能够从数据中学习并做出决策。
机器学习的类型
机器学习可以大致分为三种主要类型:
-
监督学习
-
无监督学习
-
强化学习。
每种类型都有不同的目的,并且涉及从数据中学习的不同方法。让我们仔细研究一下所有这些类型。
监督学习
让我们以同样的例子为例,我们让机器人能够识别动物。
当我们通过展示动物图片来训练机器人时,我们为每张图片贴上动物名称的标签。所以,我们就充当他的老师。我们首先告诉他狗或猫是什么样子,然后只有他能够识别它们。
在机器学习中,我们称之为监督学习。
下图总结了监督学习的要点。
监督学习的现实例子
监督学习广泛应用于各种现实生活应用中,其中算法根据标记数据进行训练以进行预测或分类。这里有些例子:
电子邮件垃圾邮件过滤
根据内容、发件人信息和其他相关属性派生的特征,将电子邮件分类为垃圾邮件或非垃圾邮件。
图像分类
识别图像中的物体或图案,例如对动物进行分类、识别手写数字或检测自动驾驶汽车中的物体。
面部识别
根据面部特征识别和验证个人,用于安全系统或解锁设备。
金融欺诈检测
通过分析金融数据中的模式和异常情况来识别潜在的欺诈交易。
语音识别
将口语转换为文本,如 Siri 或 Google Assistant 等语音助手中所示。
无监督学习
让我们从孩子学校的例子来理解这一点。当孩子们第一天去上课时,他们会遇到很多同学。起初所有的同学对他们来说都是一样的。但随着时间的推移,他们自己将它们分为不同的组:
-
他们发现一些同学非常好并想与他们成为朋友。
-
他们觉得某些行为粗鲁或令人恼火,并想避开它们。
-
他们发现一些运动方面非常出色,并希望与他们一起加入同一支球队。
-
等等…
当孩子们对同学进行分类时,没有人告诉他们该怎么做。他们在没有任何人帮助的情况下做到了这一点。——这就是无监督学习的工作原理。
让我们举一个适当的机器学习示例。想象一下,我们向我们的机器人展示了很多狗、猫、兔子等的照片,没有任何标签,并告诉他—— “我不会告诉你哪一张是哪一张。去探索并找出答案”。
机器人开始观察这些动物,注意它们的皮毛、大小以及它们的移动方式等。它还不知道它们的名字,但它正在尝试自己找到模式和差异。
经过探索后,机器人可能会注意到:
-
有些动物有长耳朵(兔子)
-
有些动物有柔软的皮毛和尾巴(猫)
-
有些动物会摇尾巴(狗)
它会计算出这些类别,而无需您直接告诉它。
最后,机器人可能不知道这些动物的名字,但它可以说“这些动物在某些方面是相似的,而在其他方面是不同的”。——这就是无监督学习。
下图总结了无监督学习的要点。
无监督学习的现实例子
无监督学习用于各种现实生活场景,其中数据没有标记,算法需要发现数据内的模式、结构或关系。这里有些例子:
聚类客户细分
企业使用无监督学习,特别是 k 均值等聚类算法,根据客户的购买行为对客户进行细分。这有助于有针对性的营销和个性化服务。
网络安全中的异常检测
无监督学习用于识别网络流量中的异常模式或行为。任何偏离正常行为的行为都可以被标记为潜在的安全威胁。
推荐系统
无监督学习用于推荐系统。通过识别用户行为模式,这些系统可以推荐用户可能喜欢的产品、电影或内容。
强化学习
想象一下教一只狗一种新技巧——当它正确完成该技巧时,你奖励它一些零食,而当它做错时,你不给它奖励。随着时间的推移,狗学会表演这个技巧以获得更多的奖励。
同样,强化学习是:
-
训练计算机做出决策
-
通过奖励好的选择和惩罚坏的选择
-
就像你可以用零食来训练狗来学习技巧一样
在强化学习中,有一个与环境交互的代理(例如机器人或计算机程序)。让我们举一个教授计算机程序玩游戏的例子,例如国际象棋。
-
在这种情况下,计算机程序是代理,国际象棋游戏是环境。
-
计算机程序可以在游戏中做出不同的动作,例如移动棋子。
-
每次移动后,它都会根据游戏结果收到反馈(奖励或惩罚)。
-
如果程序赢得了比赛,它就会收到积极的奖励。
-
如果它输掉了比赛,它就会收到负奖励,或者“惩罚”。
-
通过反复试验,程序可以了解哪些动作会带来最佳奖励,从而帮助它找出赢得比赛的最佳动作顺序。
强化学习之所以强大,是因为它允许机器从经验中学习并在复杂、不确定的环境中做出决策——类似于我们从现实世界中的反复试验中学习的方式。
下图总结了强化学习的要点。
强化学习的现实例子
玩游戏是强化学习的主要用例之一。
AlphaGo由 DeepMind 开发,是一种使用强化学习以超人水平玩棋盘游戏围棋的计算机程序。它击败了世界冠军,展示了强化学习在掌握复杂游戏方面的力量。
另一个例子是自动驾驶汽车。强化学习用于自动驾驶汽车的开发。智能体通过不断学习模拟和现实世界的经验,学习如何导航交通、在十字路口做出决策以及如何响应各种驾驶条件。
强化学习还用于算法交易,以做出购买或出售金融工具的决策。代理根据历史市场数据和实时市场状况学习最佳交易策略。
原文始发于微信公众号(KK安全说):「人脑替代计划-2」机器学习到底怎么学习怎么工作?
- 左青龙
- 微信扫一扫
-
- 右白虎
- 微信扫一扫
-
评论