- Python 57.2%
- Shell 38.8%
- Dockerfile 4%
| .devcontainer | ||
| .scripts | ||
| .vscode | ||
| src/template | ||
| tests | ||
| .gitignore | ||
| .python-version | ||
| example_trellis.py | ||
| LICENSE | ||
| pyproject.toml | ||
| README.md | ||
| uv.lock | ||
meshtests
Kleines Python-Repo, das in einem GPU-fähigen Devcontainer ein TRELLIS.2-Beispiel reproduzierbar startet.
Setup (Devcontainer)
- Open this repository in VS Code.
- Run
Dev Containers: Reopen in Container. - Wait for
postCreateCommandto complete:uv python installuv sync --extra dev- automatic TRELLIS.2 checkout and dependency installation
This creates .venv in the workspace and installs project + dev dependencies from pyproject.toml.
TRELLIS.2 im Devcontainer
Dieses Repo ist so vorbereitet, dass du TRELLIS.2 direkt im Devcontainer ausführen kannst, ohne noch einen separaten Runtime-Container zu starten.
Requirements on the host server:
- NVIDIA driver installed
- NVIDIA Container Toolkit installed
- A GPU with >= 24 GB VRAM (your A10 24GB is the minimum supported tier)
Beim ersten Container-Start passiert automatisch:
- Checkout von TRELLIS.2 nach
/workspaces/TRELLIS.2 - Installation von
torch==2.6.0undtorchvision==0.21.0für CUDA 12.4 - Installation der TRELLIS.2-Python-Pakete und CUDA-Erweiterungen
- Verifikation der wichtigsten Imports im aktivierten
.venv
Der erste Build dauert spürbar länger, weil mehrere CUDA-Erweiterungen kompiliert werden.
Wenn du den Setup später manuell erneut ausführen oder reparieren willst:
uv run trellis-install
Für einen kompletten Neuaufbau:
uv run trellis-install --force
Quick sanity check:
python -c "import torch; print(torch.cuda.is_available(), torch.cuda.get_device_name(0))"
Danach kannst du entweder die Originalscripts aus /workspaces/TRELLIS.2 starten oder den Wrapper in diesem Repo benutzen.
Wichtig für den ersten echten Modelllauf:
- TRELLIS.2 lädt zusätzlich
facebook/dinov3-vitl16-pretrain-lvd1689m - dieses Hugging-Face-Repo ist gated, also nicht anonym nutzbar
- du brauchst einen Hugging Face Account mit freigeschaltetem Zugriff und ein
HF_TOKEN
So richtest du das ein:
- Öffne https://huggingface.co/facebook/dinov3-vitl16-pretrain-lvd1689m und fordere Zugriff an.
- Erzeuge in Hugging Face einen Access Token.
- Setze den Token auf deinem Host, bevor du den Devcontainer öffnest oder neu startest.
macOS/Linux:
export HF_TOKEN=hf_xxx
Windows PowerShell:
$env:HF_TOKEN="hf_xxx"
Dann:
Dev Containers: Rebuild and Reopen in Containeroder mindestensReopen in Container- im Container prüfen:
echo $HF_TOKEN - Beispiel starten:
uv run trellis-example --skip-video
Beispielscript in diesem Repo
Der Wrapper orientiert sich am offiziellen Minimalbeispiel von TRELLIS.2 und übernimmt:
- Suche nach dem lokalen Checkout unter
/workspaces/TRELLIS.2oderTRELLIS2_REPO - sinnvolle Defaults für Sample-Bild und HDRI-Envmap aus dem TRELLIS.2-Repo
- automatische Low-VRAM-Auswahl des TRELLIS-Pipeline-Typs
- Export von
.glbund optional.mp4nachoutputs/trellis2
Standardlauf mit dem Sample-Bild aus TRELLIS.2:
uv run trellis-example
Dasselbe über das Python-Modul:
uv run python -m template.main
Eigenes Bild verwenden:
uv run trellis-example --input /pfad/zum/bild.png --output-dir outputs/mein-lauf
Nur GLB exportieren, ohne Video-Rendering:
uv run trellis-example --skip-video
Für kleinere GPUs explizit die sparsamere Variante wählen:
uv run trellis-example --skip-video --pipeline-type 512
Wenn dein TRELLIS.2-Checkout an einem anderen Ort liegt:
export TRELLIS2_REPO=/anderer/pfad/TRELLIS.2
uv run trellis-example
Fast Resume
Wenn du den Server aus Kostengründen stoppst, sind diese Pfade für einen schnellen Wiederstart am wichtigsten:
/workspaces/TRELLIS.2/workspaces/meshtests/.venv/home/vscode/.cache/huggingface
Wenn diese drei Dinge erhalten bleiben, sparst du dir normalerweise:
- den TRELLIS.2-Checkout
- das erneute Bauen der CUDA-Erweiterungen
- die großen Hugging-Face-Downloads
Schnellstart nach dem Wiederhochfahren:
export HF_TOKEN=hf_xxx
uv run trellis-example --skip-video
Wenn du direkt mit einem eigenen Bild weitermachen willst:
uv run trellis-example --input /pfad/zum/bild.png --skip-video
Wenn du nicht sicher bist, ob die wichtigsten Artefakte noch da sind:
test -d /workspaces/TRELLIS.2 && echo trellis-ok
test -d /workspaces/meshtests/.venv && echo venv-ok
test -d /home/vscode/.cache/huggingface && echo hf-cache-ok
Wenn der Container frisch ist oder etwas kaputt aussieht:
uv run trellis-install
uv run trellis-example --skip-video
Wenn du alles neu aufbauen willst:
uv run trellis-install --force
Resume With Codex
Wenn du später zurückkommst, kann ich dir als Codex am schnellsten helfen, wenn du mir kurz sagst:
- ob
/workspaces/TRELLIS.2noch existiert - ob
.venvnoch existiert - ob dein Hugging-Face-Token wieder gesetzt ist
- welches Bild du als Nächstes laufen lassen willst
Gute kurze Prompts für den Wiederstart sind zum Beispiel:
check the trellis setup and tell me the fastest way to resumeverify cache, venv and TRELLIS checkout, then run the examplerun trellis on this image: /pfad/zum/bild.pngrepair the devcontainer setup and get trellis running again
Wenn du mir nur schreibst bring trellis back up, kann ich den Zustand des Repos und der lokalen Installation prüfen und dir den schnellsten Weg nennen oder ihn direkt ausführen.
Falls das Script früh mit einer Fehlermeldung abbricht, sind das die häufigsten Ursachen:
- der automatische Post-Create-Setup ist noch nicht fertig durchgelaufen
- der Devcontainer läuft ohne GPU-Zugriff, daher meldet
torch.cuda.is_available()False - der Hugging-Face-Zugriff auf
facebook/dinov3-vitl16-pretrain-lvd1689mfehlt noch
Relevante Dateien
.devcontainer/install-trellis.sh
.devcontainer/post-create.sh
example_trellis.py
src/
template/
main.py
trellis_example.py
trellis_setup.py
tests/
test_trellis_setup.py
test_trellis_example.py