F5和NVIDIA共同提高了性能,许多租户和AI期间的安
发布时间:2025-07-13 09:49
[TechWeb] 7月9日News,F5是全球应用程序和API安全解决方案提供商,宣布F5 Big-IP的下一步是Kubernetes的Next of Kubernetes,已启动了一项新功能,其中包括NVIDIA Bluefield-3 DPU和NVIDIA DOCA软件框架,并通过了欧洲客户验证的实际部署Sesterce Sesterce。作为F5应用程序交付和安全平台的进一步扩展,Cubertes的下一个Big-IP现在可以运行到Nvidia Bluefield-3 DPU的本地运行,该公司为大型AI基础架构提供了高性能的流量管理和安全保护,从而为大规模的AI基础架构提供了显着改善的经济效率和AI绩效和AI绩效和AI。使用此联合解决方案,企业可以以较低的成本与AI相关联的RUTA简单任务,而LLM轻而易举地支持生成AI,同时在更强大的高级模型处理中留下更复杂的查询。智能Raunt的可定制机制还支持通过域,从而提高了产出质量并显着改善客户体验。先进的F5流量管理技术可确保查询准确地分布到最合适的模型节点,从而减少延迟并加速单词生成的第一次。今年早些时候,NVIDIA启动了Dynamo框架,旨在支持生成AIS的扩展以及对大型共享环境的识别模型。 NVIDIA Dynamo通过诸如联合计划,流量和内存管理等重大活动,有效地促进了Complectityado在共享环境中识别AI,并确保其在动态工作负载下稳定操作。联合F5和NVIDIA解决方案的主要优点之一是提供从CPU到Bluefield DPU的一些计算操作,从而显着提高了整体效率。在F5技术的帮助下,Dynamo KV高速缓存管理器可以根据容量的智能路由请求,并有意义通过键值缓存机制(KV)逆转响应AI生成应用的速度。这种机制将防止经常计算,并通过在操作史上重复使用信息来大大降低资源开销。在基础架构方面,与直接占用昂贵的GPU内存源相比,企业可以通过KV缓存和多重机制以较低的成本实现绩效。此外,通过在MCP服务器的前端部署F5和NVIDIA联合解决方案,F5可以充当反向代理,从而增强MCP解决方案和支持的LLMS的安全功能。同时,F5 IRULE提供完整的数据可编程性,可以快速而灵活地响应AI协议的快速进化需求,并进一步防止新兴的网络安全风险。