<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>NVIDIA on YennJ12 Engineering Blog</title><link>https://yennj12.js.org/yennj12_blog_V4/categories/nvidia/</link><description>Recent content in NVIDIA on YennJ12 Engineering Blog</description><generator>Hugo -- gohugo.io</generator><language>en-us</language><lastBuildDate>Mon, 13 Apr 2026 10:30:48 +0800</lastBuildDate><atom:link href="https://yennj12.js.org/yennj12_blog_V4/categories/nvidia/feed.xml" rel="self" type="application/rss+xml"/><item><title>MiniMax M2.7 在 NVIDIA 平台上推動可擴展的智能工作流程，進一步強化複雜AI應用</title><link>https://yennj12.js.org/yennj12_blog_V4/posts/nvidia-minimax-m27-advances-scalable-agentic-workflows-on-zh/</link><pubDate>Mon, 13 Apr 2026 10:30:48 +0800</pubDate><guid>https://yennj12.js.org/yennj12_blog_V4/posts/nvidia-minimax-m27-advances-scalable-agentic-workflows-on-zh/</guid><description>MiniMax M2.7 版本不僅增強了其前一版本 MiniMax M2.5 的功能，還引入了多項創新特性，這些特性使得在 NVIDIA 平台上實現複雜 AI 應用的可擴展智能工作流程變得更加高效。本文將深入探討 MiniMax M2.7 的核心技術架構、實現細節及其在實際場景中的應用，並分析其性能優化和最佳實踐策略。</description></item><item><title>在 Kubernetes 上使用 Slurm 運行大規模 GPU 工作負載</title><link>https://yennj12.js.org/yennj12_blog_V4/posts/nvidia-running-large-scale-gpu-workloads-on-kubernetes-wi-zh/</link><pubDate>Fri, 10 Apr 2026 08:00:00 +0800</pubDate><guid>https://yennj12.js.org/yennj12_blog_V4/posts/nvidia-running-large-scale-gpu-workloads-on-kubernetes-wi-zh/</guid><description>本文深入探討如何在 Kubernetes 環境中利用 Slurm 進行大規模 GPU 工作負載的管理和調度。文章將介紹核心概念、技術架構、實現細節，並通過代碼示例展示如何配置和優化系統性能，最後討論常見問題和最佳實踐。</description></item></channel></rss>