久芯网

单板计算机和人工智能的未来

发布时间: 2023-03-11 13:41:59 电子资讯 发布人: 久芯网 浏览量: 44

在过去二十年中发生了重大变化。以前是简单的8位CPU,内存有限,现在已经被转换成四核数据处理机器,可以小到一包口香糖。既然边缘计算越来越流行,SBC如何受益?在本文中,我们将了解为什么人工智能被从数据...

0719 arrow_coral_hp_925x385

在过去二十年中发生了重大变化。以前是简单的8位CPU,内存有限,现在已经被转换成四核数据处理机器,可以小到一包口香糖。既然边缘计算越来越流行,SBC如何受益?在本文中,我们将了解为什么人工智能被从数据中心赶走,以及SBC如何变得对人工智能(AI)友好。

人工智能的利弊

由于人工智能带来的诸多优势,其在产品中的使用不断增加。这个现代化的解决方案有助于为客户创建可定制的产品,同时可以为所有客户改进产品。

例如,流行平台可以学习并定制针对单个个体的响应,然后可以开发该平台来定制针对整个群体的响应。这反过来有助于改善所有客户的体验。

将人工智能引入产品可能相当困难。人工智能实现最常见的方法是基于云的人工智能。这种方法具有挑战性,因为基于云的人工智能系统的主要人工智能算法在数据中心运行。需要让客户设备从数据中心发送和接收信息是可行的,但对于强大的人工智能系统集成来说,这本身就存在几个问题。

隐私问题已成为人工智能的一个敏感和主要问题。敏感信息被发送到未知位置,未经授权的个人可能会访问该位置。让我们来看一下亚马逊(Amazon)基于Alexa的受消费者欢迎的产品。亚马逊的Alexa具有人工智能功能,用户可以向其提问并获得回复。仔细想想,Alexa就像一部电话,用户的问题被发送到数据中心进行人工智能处理,而不是在设备上进行本地处理。隐私问题源于担心Alexa可能会在不知情或未经客户同意的情况下记录和存储对话,从而使能够访问人工智能数据或系统的亚马逊员工能够访问这些对话。

延迟是下一个问题。使用远程数据中心的产品需要发送数据,等待处理,然后获得结果。因为没有即时的互联网连接,所以会有一个小的延迟,这个延迟可能会因流量而异。此外,随着互联网用户数量的增加,系统延迟也会增加。这可能会导致产品无反应。

与延迟相关的另一个问题是互联网访问本身。依赖远程数据中心的常开设备需要连续的互联网连接。网站提供商和DNS服务器出现问题,导致网站无法访问,这并非闻所未闻。如果真的发生了这种情况,那么任何依赖数据中心的产品都不会完全可靠。数据连接不可靠或有限的位置不适合依赖互联网的设备。

输入边缘计算

边缘计算是一个兼收并蓄的概念。这是一种解决方案,可以缓解隐私问题,减少对互联网接入的依赖,并提供不依赖数据中心的设备人工智能算法。简单地说,边缘计算通过在网络边缘本地处理数据来工作,其中边缘被视为其下方没有互联网设备的终端设备。这种方法解决了基于云的人工智能系统通常存在的许多问题和担忧。

边缘计算将人工智能的执行从数据中心转移到设备。虽然机器学习通常不在本地执行(因为这是一项复杂而昂贵的任务),但由于机器学习过程而产生的神经网络可以在本地执行。只需要使用神经网络的任务包括手写、手势识别和物体识别。

边缘计算解决的另一个问题是延迟。一旦数据可用,人工智能神经网络就会被处理,这可以显著减少执行时间。边缘计算不必等待设备建立互联网连接,发送数据,等待数据中心处理,然后将结果发送回设备进行输出,而是在本地运行整个过程,减少了互联网连接的需要,从而减少了延迟。边缘计算的使用还将潜在的私有信息保留在设备的本地,因为数据中心不用于处理信息,通常存储数据供以后学习使用。

然而,虽然边缘计算听起来很棒,但它有一个主要缺点:人工智能神经网络可能非常复杂,难以运行!虽然可以让这样的系统运行神经网络,但它们运行实际网络的速度将非常慢——事实上,相比之下,使用基于云的人工智能系统几乎是瞬间的。

幸运的是,几家硅基公司已经开始生产人工智能协处理器,用于高效运行神经网络和人工智能算法。因为它们是协处理器,所以主处理器可以腾出空间来执行其他任务。

那么,说到单板计算机,边缘计算有哪些选择?

解决方案1:Google Coral系列

由于包含TensorFlow协处理器,非常适合边缘计算。该协处理器是专为移动和嵌入式应用程序设计的。它允许执行TensorFlow Lite AI算法。TensorFlow Lite是TensorFlow的“精简”版本,为小型设备上的人工智能执行提供了一种完全可以接受的折衷方案。

开发板是一个Arm A-53四核SBC,包括TensorFlow协处理器、集成GC7000 Lite图形GPU、1 GB LPDDR4 RAM、8 GB eMMC闪存和用于互联网连接的Wi-Fi SoC。该板具有HDMI输出、USB输入和GPIO,是人工智能环境中边缘计算的优秀解决方案,包括对象识别和语音识别,尤其是在互联网访问受限的位置。

在某些情况下,不可能更改基本硬件。在这些情况下,更容易添加协处理器作为附加组件;这就是USB加速器的用武之地。Coral USB加速器是一种USB从设备,为任何连接的计算机提供TensorFlow协处理器无需重新设计PCB。这两种Coral产品的优点是易于扩展,因为开发板处理器单元可以从主板上卸下并插入到最终产品中,而USB加速器具有安装孔和难以置信的小占地面积(65×30毫米)。


解决方案2:Nvidia Jetson Nano

人工智能场景需要多个神经网络并行运行,同时保持低能耗,这将大大受益于Jetson Nano。这种单板计算机可以同时运行神经网络,用于目标检测和语音处理等应用,同时只需消耗5W。

这种基于Arm A57的SBC包括4 GB的LPDDR4 RAM、microSD卡存储、4K视频编码、4K视频解码(每秒60帧)、多个USB 3.0端口、GPIO和其他外围端口。英伟达Jetson Nano的AI核心能够执行472 GFLOP,而Jetson产品可以作为开发工具包和模块(开发工具包用于开发阶段,而模块用于产品中的最终应用)。

开发工具包的小尺寸(100×80×29毫米)使其成为低姿态位置的理想选择,而英伟达Jetson Nano的低能耗也使其成为需要人工智能功能但缺乏互联网和电力的远程位置的理想选择。


解决方案3:Intel Compute Stick

Compute Stick可以说是当今可用的最小SBC之一。它的主要好处是什么?它可以将任何HDMI显示器转换为计算机。

从物理上讲,Intel Compute Stick并不比一块普通的口香糖(不超过4.5英寸)大,但在它内部,有一个Intel Atom或Intel Core M处理器,高达4 GB的RAM和64 GB的存储空间。

尽管尺寸很大,英特尔计算棒还集成了多种连接形式,包括Wi-Fi、蓝牙和三个USB端口。虽然Intel Compute Stick不包括人工智能协处理器,但其强大的内核可能使其成为边缘计算的候选者,这可能会将人工智能任务带到任何HDMI显示器上。这使得Intel Compute Stick非常适合需要安装在紧凑位置的交互式终端和家用设备。


解决方案4:覆盆子Pi 4

最新的计算机Raspberry Pi 4是边缘计算应用的潜在候选者,原因有几个。首先,Raspberry Pi 4的核心基于四核A72 ARMv8-a,其时钟频率为1.5GHz,明显快于其任何前辈。其次,Raspberry Pi 4包含4 GB RAM,包括Wi-Fi、蓝牙和GPIO在内的广泛连接使其能够与广泛的硬件交互。Broadcom Video Core VI使Pi能够控制高达4K的多个屏幕,其尺寸相对较小(88×58 mm)使其能够安装在紧密的位置。

虽然所有这些特性使Raspberry Pi 4成为潜在的边缘计算候选,但它不包括AI协处理器,因此所有AI算法都必须在CPU上运行。Raspberry Pi 4可以与Coral USB加速器合作,为Raspberry Pi 4提供TensorFlow协处理器。这种组合的结果可以产生一个非常强大的平台,用于创建具有双屏功能的人工智能应用程序、用于对象识别的摄像头端口和用于硬件接口的GPIO。


见解

虽然并非所有SBC都配有人工智能协处理器,但将其(尤其是在嵌入式系统中)融入到您的设计中可能会大有裨益。即使那些不包括人工智能协处理器的处理器仍然可以依赖外部处理器,例如Coral USB加速器。不管怎样,在未来十年,嵌入式设备中的人工智能将变得很普遍,到那时,即使是最简单的设备也将具有最低的智能水平。

版权声明:部分文章信息来源于网络或网友投稿,本网站只负责对文章进行整理、排版、编辑、是出于分享传递更多信息为目的,并不意味着本站赞成其观点以及确保内容的真实性,如本站文章和内容涉及版权等问题,请及时联系本站站长或客服,我们会及时处理。

标题:单板计算机和人工智能的未来_久芯网

网址:https://www.9icnet.com/article/5714.html

会员中心 微信客服
客服
回到顶部