KI-Begriff 1 Min. Lesezeit

RoBERTa

RoBERTa ist eine von Meta optimierte Variante des BERT-Modells mit besserem Training und größeren Datenmengen.


RoBERTa (Robustly Optimized BERT Approach) verbessert BERT durch längeres Training, größere Batchgrößen und die Entfernung der Next-Sentence-Prediction-Aufgabe. Dadurch entstehen leistungsfähigere Encoder-Modelle für Klassifikation, NER oder Suchanwendungen.

Highlights

  • Datenbasis: 160 GB hochwertiger Text sorgen für breitere Sprachabdeckung.
  • Hyperparameter: Dynamische Maskierung und größere Sequenzlängen erhöhen Kontext.
  • Einsatz: Häufig als Ausgangspunkt für deutschsprachige Finetunes und Downstream-Tasks.
← Zurück zum Glossar
EU Made in Europe

Chat with 100+ AI Models in one App.

Use Claude, ChatGPT, Gemini alongside with EU-Hosted Models like Deepseek, GLM-5, Kimi K2.5 and many more.

Kundensupport