3D 模型在游戏开发、影视动画、虚拟现实 (VR) 等多个行业和场景中发挥着重要作用,但现有的 3D 生成扩散模型在快速生成和泛化能力上仍存在不足。为了解决这些问题,腾讯的研究团队推出了 Hunyuan3D-1.0,同时开源了轻量版与标准版模型。这一创新框架通过结合多视角生成与稀疏视角重建技术,有效攻克了 3D 生成技术中的多项挑战。
Hunyuan3D-1.0 在质量和效率之间实现了绝佳的平衡。在生成质量方面,Hunyuan3D-1.0 在形状和纹理的重建上展现了显著的优势,不仅能够精确捕捉物体的整体 3D 结构,在微小细节的刻画上也展现出了卓越的精细度。在生成速度方面,轻量版的模型仅需 10s 即可从单张图像生成 3D 图像,显著提升了 3D 建模的效率。
Hunyuan3D-1.0 与其它模型生成质量对比
目前「Hunyuan3D:仅需 10 秒生成 3D 资产」教程已上线至 OpenBayes 公共教程中,同时支持文生 3D 和图生 3D,快来体验吧~
教程地址:
https://go.openbayes.com/r5reG
Demo 运行
01 Demo 运行阶段
1.登录 OpenBayes.com,在「公共教程」页面,选择「Hunyuan3D:仅需 10 秒生成 3D 资产」教程。
2.页面跳转后,点击右上角「克隆」,将该教程克隆至自己的容器中。
3. 点击右下角「下一步:选择算力」。
4. 页面跳转后,选择「NVIDIA RTX A6000」以及「PyTorch」镜像,OpenBayes 平台上线了新的计费方式,大家可以按照需求选择「按量付费」或「包日/周/月」,点击「下一步:审核」。新用户使用下方邀请链接注册,可获得 4 小时 RTX 4090 + 5 小时 CPU 的免费时长!
小贝总专属邀请链接(直接复制到浏览器打开):https://go.openbayes.com/9S6Dr
5. 确认无误后,点击「继续执行」,等待分配资源,首次克隆需等待 2 分钟左右的时间。当状态变为「运行中」后,点击「API 地址」边上的跳转箭头,即可跳转至 Demo 页面。请注意,用户需在实名认证后才能使用 API 地址访问功能。
02 效果演示
本教程是 Hunyuan3D-1.0 轻量版,包含 2 个功能:「图像生成 3D (image to 3D)」和「文本转 3D (text to 3D)」
1.文本转 3D (text to 3D)
点击「text to 3D」,在「Input text」中输入文本提示词(一只棕白相间的仓鼠,站在白色背景前。照片采用居中构图方式,卡通风格)。如果需要生成 gif 必须选中「Render gif」,「texture mapping」则表示是否将顶点着色更改为纹理着色。点击「Generate」生成。
下列参数表示:
* T2I seed:生成图像的随机种子,默认为 0。
* T2I step:文本到图像的采样步数。
* Gen seed:生成 3D 代的随机种子。
* Gen step:3D 生成采样步数。
* max number of faces:3D 网格面数限制。
2. 图像生成 3D (image to 3D)
点击「image to 3D」,在「Input image」中上传图像(注意:自行上传图像时,请务必保证图片为 n*n 的正方形,否则会出现报错的情况)。如果需要生成 gif 必须选中「Render gif」,「texture mapping」表示是否将顶点着色更改为纹理着色。点击「Generate」生成。
新用户福利
* 注册福利:点击下方邀请链接注册,即可获得 4 小时 RTX 4090 + 5 小时 CPU 的免费算力时长,永久有效!
小贝总专属邀请链接(直接复制到浏览器打开):
https://go.openbayes.com/9S6Dr