搜索
bottom↓
回复: 8

市面上有部署(不太大的)AI模型的嵌入式NPU吗?

[复制链接]

出0入0汤圆

发表于 2023-8-6 20:33:26 | 显示全部楼层 |阅读模式
专用于加速各类神经网络推断的芯片?显卡实在太贵了......

阿莫论坛20周年了!感谢大家的支持与爱护!!

你熬了10碗粥,别人一桶水倒进去,淘走90碗,剩下10碗给你,你看似没亏,其实你那10碗已经没有之前的裹腹了,人家的一桶水换90碗,继续卖。说白了,通货膨胀就是,你的钱是挣来的,他的钱是印来的,掺和在一起,你的钱就贬值了。

出0入328汤圆

发表于 2023-8-6 20:38:01 来自手机 | 显示全部楼层
最近出的芯片基本上都带吧,Rockchip,君正,全志

出100入312汤圆

发表于 2023-8-6 20:57:00 来自手机 | 显示全部楼层
一大把,st也有

出0入0汤圆

发表于 2023-8-7 07:46:07 | 显示全部楼层
intel的计算棒

出0入0汤圆

发表于 2023-8-7 09:40:59 | 显示全部楼层
太多了。带AI算力的都可以啊。而且很多厂家都做好了常用模型的移植工作了

出105入79汤圆

发表于 2023-8-7 09:45:45 来自手机 | 显示全部楼层
英特尔计算棒2,可以让树莓派达到桌面级的帧率。

出40入518汤圆

发表于 2023-8-7 09:48:53 | 显示全部楼层
可以搜搜边缘计算盒子 AGX,高性能的,英伟达Jeton,昇腾,寒武纪,地平线,瑞芯微等等

出0入37汤圆

发表于 2023-8-8 10:45:09 | 显示全部楼层
几乎所有品牌,所有产品线,从单片机到嵌入式,都有支持AI的

出0入71汤圆

发表于 2023-8-9 09:31:11 | 显示全部楼层
看是正向推理还是反向学习,一般正向推理很多,能够支持反向学习(在线学习)的好像都是用显卡来做的
回帖提示: 反政府言论将被立即封锁ID 在按“提交”前,请自问一下:我这样表达会给举报吗,会给自己惹麻烦吗? 另外:尽量不要使用Mark、顶等没有意义的回复。不得大量使用大字体和彩色字。【本论坛不允许直接上传手机拍摄图片,浪费大家下载带宽和论坛服务器空间,请压缩后(图片小于1兆)才上传。压缩方法可以在微信里面发给自己(不要勾选“原图),然后下载,就能得到压缩后的图片。注意:要连续压缩2次才能满足要求!!】。另外,手机版只能上传图片,要上传附件需要切换到电脑版(不需要使用电脑,手机上切换到电脑版就行,页面底部)。
您需要登录后才可以回帖 登录 | 注册

本版积分规则

手机版|Archiver|amobbs.com 阿莫电子技术论坛 ( 粤ICP备2022115958号, 版权所有:东莞阿莫电子贸易商行 创办于2004年 (公安交互式论坛备案:44190002001997 ) )

GMT+8, 2024-10-3 11:22

© Since 2004 www.amobbs.com, 原www.ourdev.cn, 原www.ouravr.com

快速回复 返回顶部 返回列表