计算需求转变在科技进步的历程中,我们由对“数据流动”的需求转向了对“大规模计算”的追求。目前,“大规模计算”领域取得了两项显著进展:首先,GPU的性能得到了显著增强;其次,软件的易用性也得到了显著提升。在早期,高性能计算的开发过程较为复杂,但英伟达推出了CUDA技术,并证明了其简单易用的特点,这促使研究人员基于此技术开发了人工智能框架。
CUDA 影响力CUDA 与 AI 社区关系融洽。大家试用后普遍觉得,用 CUDA 编写的计算任务既易于掌握,又极为高效。自那以后,众多企业的研究人员开始用 CUDA 对自己的 AI 框架进行重构,从而使 CUDA 在 AI 领域的地位愈发显著。
市场竞争现状尽管其他企业也察觉到了人工智能市场的广阔前景,imtoken钱包官网app下载安卓但它们在推动用户产品更换方面的积极性不高。尽管众多企业能够提供与CUDA兼容的适配方案, imtoken官网入口但这些方案却显得较为薄弱。目前,我们应在现有经验的基础上增强AI功能,以此来改善用户体验,这代表着一种具有持续性的AI应用方式。
AI 应用范围机器学习模式只是 AI 链路中很小的一部分,链路之外还有许多关键任务需要完成。当前的核心竞争力在于谁能够掌握数据,并将用户的反馈转化为下一次训练时可以利用的数据。大模型的结构差异并不显著,而数据和工程能力的细节才是决定模型好坏的关键,OpenAI 就是这样的一个典型例子。
算力成本考量算力成本高昂,业界已开始将传统云计算成本与AI算力成本区分开来考虑。应用层正致力于挖掘模型潜力,并将其整合到自身应用中,以增强应用功能。相较模型向应用层扩展,将AI能力融入应用前景更为广阔。例如,国内的超级应用需要解决端到端的问题,而a16z也指出,优秀的模型推理和规划能力是必不可少的。
B 端应用模式与市场纠结B端应用大多采用类似搭积木的方法,通过融合开源模型与企业内部数据来构建应用。然而,在大模型商业化的实施过程中,市场面临两方面的困扰。不过,Lepton公司持续为企业在实现生成式AI应用时,寻求成本、效果和效率之间的理想平衡。
大家对B端应用若采用类似积木式的设计,并融合开源策略与企业数据的做法,预期会遇到什么样的困难?欢迎各位留言交流,点赞并转发这篇文章!