Zum Inhalt springen
_CORE
KI & Agentensysteme Unternehmensinformationssysteme Cloud & Platform Engineering Datenplattform & Integration Sicherheit & Compliance QA, Testing & Observability IoT, Automatisierung & Robotik Mobile & Digitale Produkte Banken & Finanzen Versicherungen Öffentliche Verwaltung Verteidigung & Sicherheit Gesundheitswesen Energie & Versorgung Telko & Medien Industrie & Fertigung Logistik & E-Commerce Retail & Treueprogramme
Referenzen Technologien Blog Know-how Tools
Über uns Zusammenarbeit Karriere
CS EN DE
Lassen Sie uns sprechen

NLP in der Praxis — BERT, GPT und Verarbeitung tschechischer Texte

14. 06. 2021 1 Min. Lesezeit CORE SYSTEMSai
NLP in der Praxis — BERT, GPT und Verarbeitung tschechischer Texte

Transformer-Modelle haben NLP revolutioniert. Aber wie funktionieren sie bei Tschechisch — einer Sprache mit sieben grammatischen Fällen und reicher Flexion?

Tschechischer BERT — Czert

Englischer BERT kann die tschechische Morphologie nicht bewältigen. Czert von ÚFAL MFF UK ist auf Tschechisch trainiert, während XLM-RoBERTa ein guter Kompromiss ist.

Klassifikation von Versicherungs-E-Mails

15.000 gelabelte E-Mails, feinabgestimmter Czert, 8 Kategorien. Ergebnis: 94 % Genauigkeit. Vorhersagen mit niedriger Konfidenz gehen zur manuellen Überprüfung.

GPT-2 für Generierung

Feinabgestimmt auf Kundensupport-Antworten. Flüssiger Text, aber Halluzinationen. Als Assistent für Operatoren (Antwortvorschlag zur Bearbeitung) ergibt es Sinn. GPT-3 verspricht dramatische Verbesserungen — aber nur über API.

NLP für Tschechisch ist real

Für Klassifikation sind die Ergebnisse hervorragend. Für Generierung warten wir auf bessere Modelle.

nlpbertgpttransformersczech nlp
Teilen:

CORE SYSTEMS

Wir bauen Kernsysteme und KI-Agenten, die den Betrieb am Laufen halten. 15 Jahre Erfahrung mit Enterprise-IT.

Brauchen Sie Hilfe bei der Implementierung?

Unsere Experten helfen Ihnen bei Design, Implementierung und Betrieb. Von der Architektur bis zur Produktion.

Kontaktieren Sie uns