Wie Sie beim KI-Training von Trainings- und Auszeichnungseffizienz sowie hoher Erkennungsleistung profitieren
Sie stehen am Anfang eines KI-Projektes und wollen Ihre Dokumente automatisiert verarbeiten. Jetzt haben Sie die Möglichkeit ein Standardmodell zu nutzen oder ein individuelles Datenmodell trainieren zu lassen. Wo liegen die Vor- und Nachteile? Was ist für Ihr Projekt die richtige Vorgehensweise? Wann lohnt sich das KI-Training eines individuellen Datenmodells?
Vortrainierte Standardmodelle sind super, solange sie die gewünschte Erkennungsleistung erreichen und die benötigten Attribute (Informationen) trainiert wurden. Denn nur wenn Attribute im Standardmodell vortrainiert wurden, können sie auch extrahiert werden. Anpassungen auf individuelle Attribute sieht das Standardmodell nicht vor. Ein gutes Beispiel für solche Standard-Informationen ist das Rechnungsdatum. Für die Extraktion des Rechnungsdatums in einfachen Dokumentenbeständen eignen sich Standardmodelle oft sehr gut.
Aber was ist, wenn Sie mehr Flexibilität benötigen? Wenn das vortrainierte Standardmodell nicht passt, weil ganz andere Daten benötigt werden als enthalten sind? Oder die Erkennungsleistung am Ende nicht passt, da der Dokumentenbestand zu komplex ist und mit einem Standardmodell nur eine schlechte Erkennungsleistung erreicht wird?
Hier kann das Standardmodell schnell nicht mehr ausreichen und Sie brauchen eine individuellere, flexiblere Lösung. In diesem Fall ist das individuell angelegte bzw. angepasste und trainierte Datenmodell die bessere Wahl. Es bietet Ihnen ein Maximum an Flexibilität. Damit lassen sich auch individuelle oder stark branchenbezogenen Fälle schnell trainieren.
Aber schauen wir uns doch mal konkret an, wann, wo und wie Sie vom Einsatz eines individuell trainierten Datenmodells profitieren.
Mehr Trainingseffizienz und Flexibilität bei individuellen Datenmodellen
Das fürs KI-Training benötigte Auszeichnen der Informationen geht meist relativ schnell. Es müssen oft nur wenige Dokumente vortrainiert und Daten ausgezeichnet werden.
Dabei können auch Dokumente mit vielen verschiedenen Daten ohne Probleme verarbeitet werden. KI-Trainer:innen zeigen der KI bei einer Auswahl von Dokumenten durch Anklicken der gesuchten Informationen, welche die Richtigen sind. Es ist für die KI egal, wie viele andere Informationen das jeweilige Dokument noch enthält. Die KI erkennt nach dem Training zielgenau die Gesuchte. Es können also auch von Dokumenten mit sehr vielen Daten einige wenige, vorher definierte Daten, extrahiert werden und das mit einer sehr guten Erkennungsleistung.
Die zu extrahierenden Informationen können völlig flexibel gewählt werden. Ganz egal ob es sich um einzelne Informationen oder ganze Blöcke, wie z.B. eine komplette Anschrift, handelt. Bei der Extraktion der Daten sind Sie nicht auf vortrainierte Standardwerte beschränkt.
Beispiele, bei denen das KI-Training von individuellen Datenmodellen häufig die bessere Wahl ist:
- Formulare von Versicherungen oder andere Schriftsätze lassen sich oft nicht in ein Standardmodell pressen.
- Formular mit 100 Feldern, von denen nur zwei Felder exportiert werden sollen: hier kann mit Training das individuelle Modell genau auf diese Anforderungen trainiert werden und dann exakt die gewünschten Informationen extrahiert. Mit Training statt Programmierung lässt sich das mit relativ wenig Aufwand in kurzer Zeit abbilden.
- Sehr spezielle Informationen, wie z.B. Rahmennummer und Akkunummer bei Fahrradversicherungen
- Komplexe Rechnungsdokumente mit sehr speziellen Informationen z.B. in den Produktbeschreibungen
- Eingangspost mit individuellen Informationen (z.B. bei Schadenmeldungen die Extraktion von Kunden- oder Versicherungsnummern)
Vorteile von KI-Training individueller Datenmodelle:
Active Learning unterstützt das KI-Training
Als Active Learning wird eine Trainingsunterstützung bezeichnet. Dabei legt die KI selbstständig ausgewählte Trainingsbeispiele vor, bei denen die Erkennungsleistung noch nicht ausreicht. Es handelt sich dabei um besonders aussagekräftige Seiten, die anschließend sehr gezielt und effizient nochmal ausgezeichnet werden können. Es werden dabei nur die Auszeichnungen vom System ausgegeben, die nicht richtig erkannt wurden. Die anderen Attribute müssen dadurch nicht nochmal ausgezeichnet werden. Das trägt dazu bei, dass wir mit wenigen Auszeichnungen ein optimales Modell erstellen können.
Bei Fehlern in der Attributerkennung profitieren wir zusätzlich von der Nachvollziehbarkeit unserer IDP-Plattform. Unsere KI-Trainer:innen können jederzeit nachvollziehen, warum ein Attribut als solches erkannt wurde und welches die Entscheidungsfaktoren der KI sind. Dadurch können sie effizient nachtrainieren und die Fehlerquote verringern.
Steigerung der Auszeichnungseffizienz
Um das KI-Training möglichst effizient zu gestalten, arbeiten wir mit einem speziellen Tool, was die KI-Trainer:innen bei der rein mechanischen Markierung der Informationen auf einem Dokument unterstützt. Dieses Tool sorgt dafür, dass über den Informationen auf dem Dokument bereits Textlayer (vorerkannte Boxen) liegen, die bei der Auszeichnung nur noch angeklickt werden. Das geht deutlich schneller, als einen Kasten um jede auszuzeichnende Information zu ziehen. Erschwerend kommt noch dazu, dass man beim Ziehen eines Kastens sehr genau arbeiten muss, da die Informationen oftmals dicht zusammenstehen.
Eine weitere Vereinfachung stellt die Multiauszeichnung dar. Hier profitieren die KI-Trainer:innen davon, dass mehrere identische Informationen gleichzeitig ausgezeichnet werden können. Dabei wird ein Kasten über die entsprechenden Textlayer gezogen und die entsprechenden Informationen werden gleichzeitig als einzelne Informationen ausgezeichnet. Das bedeutet für das KI-Training eine enorme Zeitersparnis.
An Kundenziele angepasste Erkennungsleistung
Wie gut die trainierten Attribute erkannt werden, hängt von verschiedenen Faktoren ab. Da sind z.B. die Qualität der Dokumente, die Komplexität der Attribute und die Heterogenität des Datenbestandes entscheidend. Aus Erfahrung können wir außerdem sagen, dass die Erkennungsleistung immer höher ist, wenn man das Modell auf dem zu verarbeitenden Dokumentenbestand trainiert.
Ein weiterer Punkt, wo man die Erkennungsleistung im Voraus schon optimieren kann, ist die layoutbasierte Herangehensweise. Das bedeutet ähnliche Dokumente werden vorab schon zusammengezogen und dann auch zusammen verarbeitet. Dadurch lässt sich die Erkennungsleistung nochmal deutlich verbessern.
Die Kosten – Nutzen – Frage
Wie viele Attribute müssen eigentlich auszeichnet werden, um ein gutes Ergebnis zu erreichen? Im Allgemeinen reichen der KI oft schon zehn bis 20 Beispiele für ein sehr gutes Ergebnis. Allerdings wird die Erkennungsleistung besser, je mehr man auszeichnet. Das gilt jedoch mit kleinen Einschränkungen. Denn anfangs steigt die Kurve für die Erkennungsleistung stark an und die Erkennungsleistung wird mit wenigen Auszeichnungen deutlich besser. Ab einem gewissen Punkt jedoch steigt sie nur noch sehr langsam an. Dann steht der Aufwand irgendwann in keinem guten Verhältnis mehr zum Nutzen. Man benötigt immer mehr Zeit für das KI-Training mit einem immer kleiner werdenden Anstieg der Trainingseffizienz.
Es kann schon mal vorkommen, dass man für das letzte Prozent nochmal die gleiche Zeit in das KI-Training steckt, wie für die 99 % vorher. Hier muss man dann im Einzelfall entscheiden, ab wann sich der Aufwand für sein Projekt möglicherweise nicht mehr lohnt. Selbstverständlich unter Berücksichtigung der Ziele des Kunden. Mögliche Fälle, wo sich der Aufwand lohnt bzw. notwendig ist:
- die Fehlertoleranz muss bei 0 % liegen
- das Modell soll für eine dauerhafte Dunkelverarbeitung eingesetzt werden
- dass Modell soll auf einem unglaublich großen Datenbestand angewendet werden.
In diesen Fällen können auch wenige Prozentpunkte entscheidend sein und damit den Aufwand wert. Im Gegensatz dazu, kann das Training bereits frühzeitig gestoppt und Aufwände eingespart werden, wenn die Erkennungsleistung vorzeitig erreicht ist. Somit werden keine Aufwände generiert, von denen am Ende niemand profitiert.
Jederzeit die Erkennungsleistung beim KI-Training im Griff
Doch wie behalten wir die Erkennungsleistung im Blick? Die Erkennungsleistung haben wir während des Trainingsprozesses jederzeit über Machine Learning und fachliche Metriken im Griff. Dabei zeigen Machine Learning Metriken den Entwickler:innen sowie KI-Trainer:innen den Status und fachliche Metriken den Kunden. So können wir uns im Laufe des Trainingsprozesses die Metriken ansehen und entscheiden, ob es sinnvoll ist, weiter zu trainieren oder ob die Fehlerquote bereits akzeptabel ist.
Welche Vor- und Nachteile haben Standardmodelle?
Standardmodelle haben den großen Vorteil, dass sie out-of-the-box sofort verfügbar sind. Kunden müssen keine Dokumente zur Verfügung stellen, um erstmal überhaupt das Modell zu trainieren. Es kann direkt mit dem kompletten Dokumentenbestand gestartet werden. Hierdurch kann Zeit eingespart werden. Leider auf Kosten der Flexibilität und oft auch der Qualität.
Standardmodelle müssen zwar nur einmal, dafür aber immer auf großen Datenmengen trainiert werden. Dadurch sind die irgendwann einmal festgelegten Attribute nicht auf die für dieses Projekt auszuwertende Dokumente trainiert. Der erste Punkt schränkt die Flexibilität der zu extrahierenden Daten ein, letzteres kann zu einer schlechteren Erkennungsleistung führen. Zudem kann man die Erkennungsleistung nicht während des Trainingsprozesses optimieren oder beeinflussen. Hier muss man mit dem Ergebnis leben, was automatisch out-of-the-box erzeugt wird.
Fazit – ist KI-Training von individuellen Datenmodellen das richtige für mein Projekt?
Standardmodelle sind nicht per se schlecht, allerdings passen sie nicht für jedes Projekt. Sie haben einen einfachen Datenbestand, wollen nur Standarddaten extrahiert haben und sind mit dem Ergebnis der Datenextraktion auf jeden Fall fein? Super, dann passt das Standardmodell für dieses Projekt.
Wenn die Parameter aber nicht auf Ihr Projekt passen, sollten Sie sich bezüglich eines individuellen Datenmodells beraten lassen. Denn auch, wenn Standardmodellen sofort out-of-the-box verfügbar sind, gibt es in der Flexibilität und der Qualität der Erkennungsleistung diverse Einschränkungen. Sobald Daten extrahiert werden sollen, die nicht im Standardmodell vortrainiert sind, stoßen diese Modelle an ihre Grenzen. Auch können Sie auf die Erkennungsleistung keinen Einfluss mehr nehmen. Wenn Ihr Datenbestand oder das Dokumentenlayout komplexer sind, beeinflusst dies die Erkennungsleistung und damit die Qualität der extrahierten Daten.
Anders gestaltet sich das bei individuellen Modellen. Hier kann nahezu alles individuell nach Kundenwunsch trainiert werden. Man ist bei der Extraktion der Daten nicht auf bestehende Standardmodelle und darin enthaltene Daten beschränkt. Sie haben die volle Flexibilität auch während des Projektes und können die Erkennungsleistung steuern, bis zu der von Ihnen akzeptierten Fehlertoleranz.
Sie wollen erfahren, wie wir IDP erfolgreich in Ihrem Unternehmen implementieren?
Buchen Sie noch heute Ihre 15-minütige Besprechung bei Dietmar Neidig. Mit dem Online-Tool Calendly können Sie direkt online Ihren Wunschtermin wählen. Anschließend erhalten Sie eine Kalender-Einladung mit Zugangslink zu Ihrer persönlichen Teams-Besprechung.
Weitere Anwendungsfälle finden Sie auf unserem Blog!
UseCase: Einführung der e‑Akte bei der Delvag Versicherungs-AG
Mit Unterstützung der inserve gelingt es den Versicherungsexperten:innen der Delvag eingehende Dokumente schnell und automatisiert zu verarbeiten. Bei der neu eingeführten e‑Akte werden eingehende Dokumente automatisch dem richtigen Schaden oder Vertrag zugeordnet.
Datenextraktion & Strukturierung Teil 3
Erfahren Sie im drittenTeil „Datenextraktion & Strukturierung“ alles darüber, wie Sie Daten aus Dokumenten extrahieren mittels Auszeichnung, KI-Training und Vorhersagen.
Datenextraktion & Strukturierung Teil 2
Erfahren Sie im zweiten Teil „Datenextraktion & Strukturierung“ alles darüber, wie Sie Dokumente mithilfe von Clustering und Klassifizierung strukturieren bevor Sie Daten extrahieren.