Text Analytics Toolbox Model for BERT-Base Multilingual Cased Network
Pretrained BERT-Base Multilingual Cased Network for MATLAB
102 Downloads
Aktualisiert
25. Nov 2025
BERT-Base Multilingual Cased is a pretrained language model based on Deep Learning Transformer architecture that can be used for a wide variety of Natural Language Processing (NLP) tasks. This model has 12 self-attention layers and a hidden size of 768.
To load a BERT-Multilingual Cased model, you can run the following code:
[net, tokenizer] = bert(Model="multilingual");
Kompatibilität der MATLAB-Version
Erstellt mit
R2023b
Kompatibel mit R2023b bis R2026a
Plattform-Kompatibilität
Windows macOS (Apple Silicon) macOS (Intel) LinuxTags
Live Editor erkunden
Erstellen Sie Skripte mit Code, Ausgabe und formatiertem Text in einem einzigen ausführbaren Dokument.
