Sie verfolgen jetzt diese Einreichung
- Aktualisierungen können Sie in Ihrem Feed verfolgter Inhalte sehen.
- Je nach Ihren Kommunikationseinstellungen können Sie auch E-Mails erhalten.
BERT-Mini is a pretrained language model based on Deep Learning Transformer architecture that can be used for a wide variety of Natural Language Processing (NLP) tasks. This model has 4 self-attention layers and a hidden size of 256.
To load a BERT-Mini model, you can run the following code:
[net, tokenizer] = bert(Model="mini");
Kompatibilität der MATLAB-Version
- Kompatibel mit R2023b bis R2026a
Plattform-Kompatibilität
- Windows
- macOS (Apple Silicon)
- macOS (Intel)
- Linux
