Überblick
Warum ein eigenes LLM?
KI-Modelle wie ChatGPT sind beeindruckend – aber laufen in der Cloud und bleiben eine Black Box.
Mit meinem eigenen LLM-Projekt möchte ich verstehen,
wie man Sprachmodelle im kleineren Maßstab architekturiert, trainiert und deployt,
und wie weit man mit einem gut optimierten Home-Setup wirklich kommt.
Hardware
Home-Lab Setup
Für dieses Projekt setze ich bewusst auf ein realistisches, bezahlbares Setup,
das viele Entwickler:innen zu Hause nachbauen könnten:
- GPU: NVIDIA GeForce RTX 3060 Ti (8 GB VRAM)
- CPU: AMD Ryzen 7 1700X
- RAM: 32 GB DDR4
- Mainboard: B550 Plattform
Damit liegt der Fokus auf Effizienz statt brutaler Rechenpower:
kleinere Modelle, clevere Trainingsstrategien, Quantisierung und viel Feintuning.
Status
Aktueller Fortschritt
Aktuell befinde ich mich in der Setup- & Experimentierphase:
- Home-Lab mit RTX 3060 Ti + Ryzen 7 1700X + 32 GB RAM ist aufgebaut.
- Erste Tokenizer-Tests und Datensatz-Pipelines sind in Arbeit.
- Modellgrößen und Konfigurationen für das Training werden validiert.
- Fokus: sinnvolle Balance aus Modellgröße, Kontextlänge und Trainingsdauer.
Der nächste Schritt ist, ein erstes kleineres Sprachmodell lokal zu trainieren
und zu messen, wie viele Tokens pro Sekunde und welche Kontextlängen dieses Setup realistisch schafft.
Coming Next
Dev-Log & Demo
Geplant sind ein öffentlicher Dev-Log mit technischen Details (Architektur, Hyperparameter,
Trainingszeiten, Fehlern & Learnings) sowie eine kleine Demo,
in der man das Modell direkt ausprobieren kann – natürlich lokal gehostet.