Verda

面向 AI 领域的下一代高性能云服务平台

Verda (前身为DataCrunch)是一款面向AI领域的下一代高性能云服务平台,核心定位是为企业、科研机构及开发者提供“GPU算力支撑+模型部署服务”,以满足大规模AI模型训练、推理及高性能计算需求,尤其适配当前AI行业对高端GPU资源的迫切需求。平台依托NVIDIA®高端硬件、全托管运维及绿色能源支持,已服务于索尼、哈佛大学、Freepik等知名企业与机构,以下是其核心功能、优势及服务细节的完整介绍:

一、核心定位:聚焦“AI算力+部署”的全栈云服务

Verda 解决了AI研发中的两大核心痛点:

  1. 高端GPU资源获取难:传统算力平台存在“配额限制、部署延迟、硬件性能不足”问题,无法支撑大模型(如千亿参数LLM、多模态模型)的训练与推理;
  2. 算力运维成本高:企业自建GPU集群需投入大量人力维护硬件、优化软件栈,且难以灵活应对算力需求波动。

平台以“即开即用、按需付费、全托管运维”为核心模式,提供从“单GPU实例”到“大规模GPU集群”的全场景算力服务,同时配套模型推理工具,让用户无需关注硬件细节,专注于AI研发本身。

二、核心功能:三大核心服务覆盖AI算力全需求

1. GPU实例(GPU Instances):灵活适配中小规模AI任务

为中小规模算力需求提供“按需启停”的高端GPU资源,核心特点包括:

  • 硬件配置高端化:搭载NVIDIA®最新GPU(如已上线的NVIDIA B300、B200),单实例可提供最高262GB GPU VRAM(如1x NVIDIA B300 SXM6配置),搭配30核CPU、275GB内存,满足大模型单卡推理或中小规模训练需求(如8B-70B参数模型的微调);
  • 部署与运维零门槛:通过可视化控制台或API,可在几分钟内启动、停止或休眠实例,无需手动配置驱动、操作系统或软件环境;
  • 按需付费模式:支持“按小时计费”(如1x NVIDIA B300实例约$1.24/小时),提供“现货价格(Spot Price)”选项,降低非紧急任务的算力成本;
  • 安全合规保障:平台通过ISO27001认证及GDPR合规,实例硬件为专属资源,避免多用户共享导致的性能波动与数据泄露风险。

2. GPU集群(GPU Clusters):支撑大规模AI训练与集群推理

为企业级大规模AI任务(如千亿参数模型训练、多节点分布式推理)提供定制化集群服务,核心优势:

  • 高性能硬件与互联:以NVIDIA Blackwell平台为核心,支持16x-128x GPU节点组合(如B200集群),单个8x GPU节点含1440GB GPU VRAM、240核AMD Turin CPU,配备3.2Tb/s InfiniBand™高速互联(数据传输延迟趋近于零)及100Gbit/s以太网,确保多节点协同效率;
  • 无配额与快速部署:无需申请配额或等待审批,支持“自助式创建”,用户可根据任务需求自定义集群规模、软件栈(如深度学习框架版本、驱动配置),Verda提供全托管维护(硬件故障修复、软件更新);
  • 适配复杂AI场景:可支撑“百万级知识标记并行推理”“多模态模型训练(如图像生成、视频理解)”等重度任务,典型案例包括Unbabel的语言模型全流程训练、Prem AI的监控与安全基础设施算力支撑。

3. 无服务器推理(Serverless Inference):低成本、高弹性的模型部署

为开发者与企业提供“零部署门槛、自动扩缩容”的模型推理服务,解决传统推理部署中“资源闲置、扩容不及时”问题:

  • 零运维部署:无需手动配置服务器、负载均衡或扩容策略,用户仅需上传模型(支持主流框架如PyTorch、TensorFlow),平台自动完成部署并生成API接口,可直接集成到应用中;
  • 弹性扩缩容:根据推理请求量自动调整算力资源(请求高峰时扩容、低谷时缩容),避免“算力过剩浪费”或“请求拥堵超时”;
  • 低成本优势:按实际推理调用量计费,无需为闲置资源付费,适合“非恒定请求量”场景(如电商AI客服、阶段性AI产品测试)。

三、平台核心优势:差异化竞争力

1. 绿色能源与可持续性

所有数据中心100%采用可再生能源供电,满足企业ESG(环境、社会、治理)合规需求,尤其适配对可持续发展有要求的跨国企业与科研机构(如哈佛大学、索尼)。

2. 开发者友好与专家支持

  • 开发者优先体验:提供直观的控制台、详细的API文档及SDK,支持与主流开发工具(如Docker、CI/CD流程)集成,避免“复杂环境配置陷阱”(如Docker镜像兼容性问题);
  • 实时专家支持:通过控制台内置聊天工具提供工程师实时支持,帮助解决“集群配置优化”“模型部署调试”等技术问题,缩短研发排障时间。

3. 客户信任与行业适配

  • 广泛客户基础:服务领域覆盖科技企业(Freepik、Black Forest Labs)、科研机构(哈佛大学、韩国大学)、制造业(索尼、NEC),客户反馈集中于“部署速度快”“硬件稳定性高”“支持响应及时”;
  • 多行业解决方案:针对AI绘画(如Stable Diffusion大规模推理)、自然语言处理(如大模型微调)、计算机视觉(如卫星图像分析)、科研计算(如暗物质模拟)等场景提供优化配置,降低行业适配成本。

四、典型客户与使用场景

客户类型 代表客户 核心使用场景
科技企业 Freepik 定制化模型快速部署,支撑AI图像生成与设计工具的大规模推理
科研机构 哈佛大学 高性能GPU集群用于暗物质研究、天体物理模拟等计算密集型科研任务
语言技术公司 Unbabel 全流程语言模型训练(从数据预处理到模型迭代),依赖集群高稳定性与高速互联
AI基础设施公司 Prem AI 监控与安全系统算力支撑,需高可靠性GPU资源保障24/7不间断运行

五、总结:AI研发的“算力基础设施伙伴”

Verda 本质是“AI时代的专业算力服务商”,通过“高端GPU硬件+全托管运维+灵活计费模式”,为不同规模、不同场景的AI需求提供定制化解决方案——从开发者的小模型测试、企业的大规模训练到产品级推理部署,均能实现“降本、提效、减运维”,尤其适合对算力性能、稳定性与部署效率有高要求的AI团队与企业。