KI-Begriff 1 Min. Lesezeit

LoRA (Low-Rank Adaptation)

LoRA ermöglicht leichtgewichtiges Finetuning großer Modelle, indem nur kleine Low-Rank-Matrizen trainiert werden.


LoRA friert die Originalgewichte eines Modells ein und fügt pro Layer zwei kompakte Matrizen hinzu, die die Gewichtsänderung approximieren. Dadurch lassen sich spezialisierte Varianten trainieren, ohne das komplette Modell anpassen oder speichern zu müssen.

Vorteile

  • Schnell: Weniger Parameter bedeuten kürzere Trainingszeiten.
  • Kosteneffizient: Passt auf einzelne GPUs oder sogar Consumer-Hardware.
  • Modular: Unterschiedliche LoRA-Adapter können je nach Use Case geladen oder gemischt werden.
← Zurück zum Glossar
EU Made in Europe

Chat with 100+ AI Models in one App.

Use Claude, ChatGPT, Gemini alongside with EU-Hosted Models like Deepseek, GLM-5, Kimi K2.5 and many more.

Kundensupport