No description
  • Python 57.2%
  • Shell 38.8%
  • Dockerfile 4%
Find a file
2026-04-03 00:32:41 +00:00
.devcontainer bugfixes 2026-04-03 00:24:53 +00:00
.scripts Initial commit 2026-04-02 22:30:47 +00:00
.vscode Initial commit 2026-04-02 22:30:47 +00:00
src/template bugfixes 2026-04-03 00:24:53 +00:00
tests bugfixes 2026-04-03 00:24:53 +00:00
.gitignore Initial commit 2026-04-02 22:30:47 +00:00
.python-version Initial commit 2026-04-02 22:30:47 +00:00
example_trellis.py trellis auto install 2026-04-02 23:33:30 +00:00
LICENSE Initial commit 2026-04-02 22:30:47 +00:00
pyproject.toml trellis auto install 2026-04-02 23:33:30 +00:00
README.md updated readme 2026-04-03 00:32:41 +00:00
uv.lock trellis auto install 2026-04-02 23:33:30 +00:00

meshtests

Kleines Python-Repo, das in einem GPU-fähigen Devcontainer ein TRELLIS.2-Beispiel reproduzierbar startet.

Setup (Devcontainer)

  1. Open this repository in VS Code.
  2. Run Dev Containers: Reopen in Container.
  3. Wait for postCreateCommand to complete:
    • uv python install
    • uv sync --extra dev
    • automatic TRELLIS.2 checkout and dependency installation

This creates .venv in the workspace and installs project + dev dependencies from pyproject.toml.

TRELLIS.2 im Devcontainer

Dieses Repo ist so vorbereitet, dass du TRELLIS.2 direkt im Devcontainer ausführen kannst, ohne noch einen separaten Runtime-Container zu starten.

Requirements on the host server:

  • NVIDIA driver installed
  • NVIDIA Container Toolkit installed
  • A GPU with >= 24 GB VRAM (your A10 24GB is the minimum supported tier)

Beim ersten Container-Start passiert automatisch:

  • Checkout von TRELLIS.2 nach /workspaces/TRELLIS.2
  • Installation von torch==2.6.0 und torchvision==0.21.0 für CUDA 12.4
  • Installation der TRELLIS.2-Python-Pakete und CUDA-Erweiterungen
  • Verifikation der wichtigsten Imports im aktivierten .venv

Der erste Build dauert spürbar länger, weil mehrere CUDA-Erweiterungen kompiliert werden.

Wenn du den Setup später manuell erneut ausführen oder reparieren willst:

uv run trellis-install

Für einen kompletten Neuaufbau:

uv run trellis-install --force

Quick sanity check:

python -c "import torch; print(torch.cuda.is_available(), torch.cuda.get_device_name(0))"

Danach kannst du entweder die Originalscripts aus /workspaces/TRELLIS.2 starten oder den Wrapper in diesem Repo benutzen.

Wichtig für den ersten echten Modelllauf:

  • TRELLIS.2 lädt zusätzlich facebook/dinov3-vitl16-pretrain-lvd1689m
  • dieses Hugging-Face-Repo ist gated, also nicht anonym nutzbar
  • du brauchst einen Hugging Face Account mit freigeschaltetem Zugriff und ein HF_TOKEN

So richtest du das ein:

  1. Öffne https://huggingface.co/facebook/dinov3-vitl16-pretrain-lvd1689m und fordere Zugriff an.
  2. Erzeuge in Hugging Face einen Access Token.
  3. Setze den Token auf deinem Host, bevor du den Devcontainer öffnest oder neu startest.

macOS/Linux:

export HF_TOKEN=hf_xxx

Windows PowerShell:

$env:HF_TOKEN="hf_xxx"

Dann:

  1. Dev Containers: Rebuild and Reopen in Container oder mindestens Reopen in Container
  2. im Container prüfen: echo $HF_TOKEN
  3. Beispiel starten: uv run trellis-example --skip-video

Beispielscript in diesem Repo

Der Wrapper orientiert sich am offiziellen Minimalbeispiel von TRELLIS.2 und übernimmt:

  • Suche nach dem lokalen Checkout unter /workspaces/TRELLIS.2 oder TRELLIS2_REPO
  • sinnvolle Defaults für Sample-Bild und HDRI-Envmap aus dem TRELLIS.2-Repo
  • automatische Low-VRAM-Auswahl des TRELLIS-Pipeline-Typs
  • Export von .glb und optional .mp4 nach outputs/trellis2

Standardlauf mit dem Sample-Bild aus TRELLIS.2:

uv run trellis-example

Dasselbe über das Python-Modul:

uv run python -m template.main

Eigenes Bild verwenden:

uv run trellis-example --input /pfad/zum/bild.png --output-dir outputs/mein-lauf

Nur GLB exportieren, ohne Video-Rendering:

uv run trellis-example --skip-video

Für kleinere GPUs explizit die sparsamere Variante wählen:

uv run trellis-example --skip-video --pipeline-type 512

Wenn dein TRELLIS.2-Checkout an einem anderen Ort liegt:

export TRELLIS2_REPO=/anderer/pfad/TRELLIS.2
uv run trellis-example

Fast Resume

Wenn du den Server aus Kostengründen stoppst, sind diese Pfade für einen schnellen Wiederstart am wichtigsten:

  • /workspaces/TRELLIS.2
  • /workspaces/meshtests/.venv
  • /home/vscode/.cache/huggingface

Wenn diese drei Dinge erhalten bleiben, sparst du dir normalerweise:

  • den TRELLIS.2-Checkout
  • das erneute Bauen der CUDA-Erweiterungen
  • die großen Hugging-Face-Downloads

Schnellstart nach dem Wiederhochfahren:

export HF_TOKEN=hf_xxx
uv run trellis-example --skip-video

Wenn du direkt mit einem eigenen Bild weitermachen willst:

uv run trellis-example --input /pfad/zum/bild.png --skip-video

Wenn du nicht sicher bist, ob die wichtigsten Artefakte noch da sind:

test -d /workspaces/TRELLIS.2 && echo trellis-ok
test -d /workspaces/meshtests/.venv && echo venv-ok
test -d /home/vscode/.cache/huggingface && echo hf-cache-ok

Wenn der Container frisch ist oder etwas kaputt aussieht:

uv run trellis-install
uv run trellis-example --skip-video

Wenn du alles neu aufbauen willst:

uv run trellis-install --force

Resume With Codex

Wenn du später zurückkommst, kann ich dir als Codex am schnellsten helfen, wenn du mir kurz sagst:

  • ob /workspaces/TRELLIS.2 noch existiert
  • ob .venv noch existiert
  • ob dein Hugging-Face-Token wieder gesetzt ist
  • welches Bild du als Nächstes laufen lassen willst

Gute kurze Prompts für den Wiederstart sind zum Beispiel:

  • check the trellis setup and tell me the fastest way to resume
  • verify cache, venv and TRELLIS checkout, then run the example
  • run trellis on this image: /pfad/zum/bild.png
  • repair the devcontainer setup and get trellis running again

Wenn du mir nur schreibst bring trellis back up, kann ich den Zustand des Repos und der lokalen Installation prüfen und dir den schnellsten Weg nennen oder ihn direkt ausführen.

Falls das Script früh mit einer Fehlermeldung abbricht, sind das die häufigsten Ursachen:

  • der automatische Post-Create-Setup ist noch nicht fertig durchgelaufen
  • der Devcontainer läuft ohne GPU-Zugriff, daher meldet torch.cuda.is_available() False
  • der Hugging-Face-Zugriff auf facebook/dinov3-vitl16-pretrain-lvd1689m fehlt noch

Relevante Dateien

.devcontainer/install-trellis.sh
.devcontainer/post-create.sh
example_trellis.py
src/
  template/
    main.py
    trellis_example.py
    trellis_setup.py
tests/
  test_trellis_setup.py
  test_trellis_example.py