小白求科普,未来 ai 是中心化的服务还是终端进行计算?

14次阅读

共计 126 个字符,预计需要花费 1 分钟才能阅读完成。

由于对大语言模型原理完全 0 知识储备,大佬勿喷啊
现在个人设备可以运行 ollama 使用某些模型,w3c 也有像 WebGPU 这样的 API 可以调用用户设备算力,是不是说未来 ai 的方向会更趋向于不需要联网的终端应用?那些大公司花钱买那么多 GPU 堆算力的目的是什么?

正文完
 0