AI无服务器运行GPUs
内容传递网络Cloudflare公司开通世界网络向公司开放,公司寻找搭建并部署AI模型并配有新的无服务器AI、数据库和可观察性特征,并协同数个新技术伙伴这样做
Cloudflare新的以AI为焦点倡议的第一部分于今日宣布,即工人AI框架,它提供访问云法尔网络GPU无服务器运行AI模型之道用户试图运行高度延时依赖的AI系统时,框架应提供更接近操作工作量的选择网络边缘减回程时间公司表示工人AI设计中还把推理与培训数据分离,确保消费者信息不被误用
Cloudflare新公告第二版为向量数据库,它设计使开发者完全用Cloudflare自己的系统创建AI应用软件向量化工作与Oudolflare底层网络并发,再次允许工作接近终端用户,并有工工AI集成,允许用户生成嵌入工AI并用向量化索引
AI网关本身是一个性能管理优化系统,旨在提供可观察性输入AI网络应用AI网关提供数据像请求数和持续时间、运行应用成本和AI应用用户计数等,
Cloudfrare还宣布与微软、Databricks和AI启动Huggingface协作微软带回ONNX运行时间跨云端或端点使用AI模型的连续性,而Databricks合作伙伴关系补充公司MLFL开源平台用于机器学习周期管理Cloudflare网络将成为客户部署HuggingFace强型AI模型的第一个站点,
Matthew Prince共同创建者兼云法尔CEO表示新开销代表公司开发平台大扩展, 目标是让所有潜在客户都可访问“推理基础建设”。
Prince表示网络是运营AI最优之地
企业想解决提供强力经验而又不牺牲电池生命或延缓度的挑战,LLMs和AI成为所有应用中不可分割的一部分, 我们相信云法拉利完全适合为开发商提供方便和廉价启动电源
所有宣布特征立即可用计费将基本基于使用方式,对工人使用不同的模式、向量化和AI网关推理普林斯表示2024前可自由使用