Stability AI 推出的Stable Virtual Camera ,能將普通的2D 圖片轉化為具有立體感的3D 視頻。用戶只需設定相機移動軌跡(如螺旋、變焦、平移等),就能輕鬆生成流暢的3D 效果視頻。
核心功能:
2D 轉3D: 將靜態圖片轉化為動態的3D 視頻。
靈活的相機控制: 用戶可自定義相機運動,實現各種視覺效果。
多格式輸出: 支持多種視頻比例,滿足不同平台需求。
高質量生成: 生成的3D 視頻效果逼真,畫面流暢。
超長視頻支持: 最長可生成1000 幀的視頻。
技術亮點:
運用生成式AI 和神經渲染技術。
優化多角度圖像的一致性和平滑度。
基於擴散模型,逐步提升視頻質量。
項目資源:
GitHub 代碼庫: https://github.com/Stability-AI/stable-virtual-camera
Hugging Face 模型: https://huggingface.co/stabilityai/stable-virtual-camera
arXiv 論文: https://arxiv.org/pdf/2503.14489
適用場景:
廣告和產品展示。
創意內容製作。
教育和培訓。
安裝步驟
克隆倉庫:
git clone --recursive https://github.com/Stability-AI/stable-virtual-camera cd stable-virtual-camera
安裝依賴:
pip install -e .
要求:
請注意,Windows 用戶需要通過WSL(Windows Subsystem for Linux)來運行,因為本機Windows 不支持Flash。
Python 版本: >=3.10
PyTorch 版本: >=2.6.0
額外依賴:
如果你想使用演示或進行開發,請參考INSTALL.md
獲取更多依賴項。
使用方法
Hugging Face 身份驗證:
你需要通過Hugging Face 登錄才能下載模型權重。
運行以下命令進行身份驗證:
huggingface-cli login
演示程序:
Gradio 演示:適合普通用戶,通過圖形界面操作。
python demo_gr.py
詳細指南請參見GR_USAGE.md
。
CLI 演示:適合高級用戶或研究人員,允許更細粒度的控制。
python demo.py --data_path <data_path> [additional arguments]
詳細指南請參見CLI_USAGE.md
。
更多信息:
如果你想對NVS 模型進行基準測試,請查看論文中的相關信息,了解關於場景、分割和輸入/目標視圖的詳細數據。