In diesem ausführlichen Gespräch zwischen David A. Bloch, CEO von Legartis, und Gordian Berger, CTO von Legartis, wird die rasante Entwicklung von Legal AI erörtert—von grundlegenden Sprachmodellen bis hin zu autonomen Agenten.
Sie sprechen über praktische Anwendungen, Herausforderungen wie Datenschutz und Quellenverifizierung sowie die wachsende Rolle von KI in juristischen Arbeitsabläufen.
Der Dialog bietet wertvolle Einblicke in die Richtung, in die sich die Rechtsbranche bewegt - und was dieser Wandel sowohl für die Innovation als auch für die rechtliche Integrität bedeutet.
Was wissen wir bereits über KI?
David: Kannst du uns einen kurzen Überblick darüber geben, was in den letzten Jahren im Bereich der KI geschehen ist?
Gordian: Ich denke, es ist wichtig, kurz über die letzten Jahre nachzudenken, denn obwohl es KI schon seit vielen Jahren - vielleicht sogar Jahrzehnten - gibt, fand der bedeutendste Sprung in ihrer Entwicklung statt, als OpenAI ChatGPT veröffentlichte.
Diese Veröffentlichung markierte den Moment, in dem die Transformer-Architektur, die der heutigen KI zugrunde liegt, allgemein bekannt und für die Allgemeinheit nutzbar wurde - und sie funktionierte beeindruckend gut. Dieser Durchbruch kann meiner Meinung nach als der eigentliche Beginn der aktuellen KI-Evolution angesehen werden. Interessanterweise geschah das Ende des Jahres 2022. Es kommt einem vor, als sei das schon viel länger her, aber in Wirklichkeit ist es gar nicht so lange her.
Seit 2023 und bis ins Jahr 2024 haben wir viele Verbesserungen erlebt. Nach der Freigabe von ChatGPT haben andere Anbieter schnell nachgezogen. Nicht nur im Jahr 2022, sondern auch im Jahr 2023 konnten wir erhebliche Effizienzsteigerungen feststellen.
Jetzt, im Jahr 2024, gab es eine Überraschung: Die zugrunde liegende Technologie hat sich nicht so dramatisch verbessert. Während die Modelle sicherlich besser geworden sind, denke ich, dass viele Nutzer - vor allem diejenigen, die ChatGPT von Anfang an verwendet haben - vielleicht keinen großen Leistungssprung bemerkt haben, zumindest nicht auf den ersten Blick. Und das ist wichtig zu betonen: 2024 hat keinen zweiten Sprung in der gleichen Größenordnung wie den ersten gebracht.
Hinter den Kulissen hat sich jedoch eine Menge getan - Änderungen, die der Durchschnittsnutzer vielleicht nicht sofort bemerkt, wenn er ChatGPT einfach nur benutzt. Die Modelle haben sich zwar schrittweise verbessert, aber gleichzeitig können wir jetzt mit viel weniger Hardware vergleichbare Ergebnisse erzielen. KI ist deutlich kosteneffizienter geworden.
Dieser Wandel hat zu einer Art „Wettrüsten“ unter den Modellanbietern geführt. Im Wesentlichen erhalten wir jetzt bessere Ergebnisse mit viel geringeren Input-Anforderungen.
Eine weitere wichtige Entwicklung ist, dass Anbieter - wie wir bei Legartis, aber auch andere im Bereich Legal Tech und KI - gelernt haben, die bestehenden Modelle viel effizienter zu nutzen. Und das ist wichtig, denn wir schöpfen das Potenzial der Modelle noch nicht voll aus. Es braucht Zeit, um zu verstehen, was man aus ihnen herausholen kann. Auch wenn sich die Modelle selbst nur schrittweise verbessern, so verbessern sich doch die Ergebnisse erheblich - einfach weil wir sie effektiver nutzen.
Außerdem sehen wir ermutigende Trends im Bereich des Datenschutzes. Auch wenn sich die Qualität der Modelle dadurch nicht unbedingt direkt verbessert, wird es zunehmend möglich, eigene KI-Modelle zu hosten. Das ist ein großer Gewinn für Unternehmen, die mit sensiblen Daten umgehen.
Das fasst zusammen, wo wir im Jahr 2024 stehen. Mit Blick auf das Jahr 2025 bin ich optimistisch, dass wir einen weiteren großen Sprung nach vorn erleben werden - nicht wegen radikal neuer Modellarchitekturen, sondern wegen neuer, effizienterer Möglichkeiten, das zu nutzen, was wir bereits haben.
Was bedeutet der Aufstieg der KI für die Entwicklung von Legartis?
David: Schauen wir uns genauer an, was die Entwicklung der KI in den letzten Jahren speziell für eine Lösung wie Legartis bedeutet. Wie hat sie die Entwicklung beeinflusst?
Gordian: Sicher, lassen Sie mich die verschiedenen Phasen, die wir durchlaufen haben, kurz erläutern. Angefangen mit dem, was ich als die frühen Tage bezeichnen würde - ungefähr zwischen 2017 und 2020 - war die Entwicklung der Legal AI langsam und teuer. Der Aufbau dieser Systeme war unglaublich ressourcenintensiv. Um Ihnen ein Beispiel von Legartis zu geben: Die Entwicklung eines KI-Modells für nur einen Vertragstyp hat uns mehr als ein Jahr gekostet.
Die Entwicklungszeit war also extrem lang. Das Ergebnis war ein Modell, das eine bestimmte Art von Verträgen analysieren und einen Effizienzgewinn von etwa 30 % erzielen konnte - das war gut und legte den Grundstein. Aber die Herausforderungen waren groß. Wir hatten nur sehr begrenzten Zugang zu hochwertigen juristischen Trainingsdaten. Die Modelle erforderten eine umfangreiche manuelle Überwachung und Feinabstimmung. Die Möglichkeiten der Mehrsprachigkeit waren äußerst begrenzt. Die Ausweitung von einer Sprache auf eine andere bedeutete im Grunde, dass wir wieder bei Null anfangen mussten.
Das brachte uns in die Beschleunigungsphase - von 2021 bis fast 2024. In dieser Zeit wurden wir Zeuge einer ausgereiften KI und großer Effizienzsteigerungen. Wir gingen von der Bearbeitung eines Vertragstyps zu mehreren über, und die Skalierung auf neue Typen wurde viel einfacher. Der eindeutige Trend ging zu hybriden Arbeitsabläufen: KI-unterstützt, aber immer noch mit Juristen auf dem Fahrersitz.
Jetzt im Jahr 2024 - und mit Blick auf 2025 - sehen wir Skalierbarkeit auf einem völlig neuen Niveau. KI prüft nicht mehr nur Verträge. Sie fasst zusammen, verhandelt und schlägt Revisionen vor. Wir expandieren über mehrere Rechtsordnungen hinweg, unterstützen mehr Sprachen und nehmen neue Vertragstypen mit sehr geringem Aufwand auf. Das ist die Geschwindigkeit des Wandels, die wir gerade erleben.
KI-Agenten und LLM-Trends 2025: Ein neues Kapitel für Legal Innovation
David: Und wenn wir in das Jahr 2025 blicken, könnten Sie unseren Zuhörern die Ära der KI-Agenten vorstellen? Was können wir erwarten, und welche allgemeinen Trends im Zusammenhang mit LLMs sollten wir beobachten?
Gordian: Ganz genau. Lassen Sie mich zunächst auf dem aufbauen, was ich bereits erwähnt habe: Ich glaube nicht, dass wir im Jahr 2025 große Durchbrüche bei den zugrunde liegenden großen Sprachmodellen selbst erleben werden. Ihre Entwicklung wird wahrscheinlich schrittweise weitergehen.
Aber - und das ist eine große Veränderung - der Aufstieg von KI-Agenten wird einen großen Einfluss haben. Dieser Trend zeichnet sich bereits im Jahr 2025 ab. Das Spannende daran ist, wie viel mehr wir mit der Technologie, die wir bereits haben, machen können. KI-Agenten werden uns eine Art Starthilfe geben, noch bevor der nächste große Sprung in der Modellarchitektur ansteht.
Was also ist ein KI-Agent? Im Gegensatz zu einem typischen Sprachmodell, das Benutzeranfragen ausschließlich auf der Grundlage seiner (oft veralteten) Trainingsdaten beantwortet, hat ein KI-Agent ein definiertes Ziel oder eine Aufgabe - und Zugang zu Tools, die ihm helfen, dieses Ziel zu erreichen.
Ein Agent kann zum Beispiel ein Assistent des Kundensupports, ein Reiseplaner oder ein Verfasser von Rechtsrichtlinien sein. Der entscheidende Unterschied besteht darin, dass ein Agent nicht nur Fragen beantwortet, sondern aktiv auf Ergebnisse hinarbeitet. Er kann APIs aufrufen, auf E-Mails zugreifen, Suchfunktionen nutzen oder sogar mit anderen Sprachmodellen oder Agenten kommunizieren.
Dieser Zugang zu Werkzeugen verbessert seine Fähigkeiten dramatisch. Wenn ein Modell zum Beispiel nicht gut rechnen kann, kann man ihm Zugang zu einem Taschenrechner geben, und plötzlich wird es exzellent in Mathe. Auch wenn sich die Basistechnologie nicht drastisch verbessert hat, so hat sich doch das Benutzererlebnis verbessert—einfach weil der Agent mit den richtigen Tools interagieren kann.
Eine weitere wichtige Entwicklung ist das Langzeitgedächtnis. Im Gegensatz zu herkömmlichen Modellen, die nur auf statische Trainingsdaten angewiesen sind, kann ein Agent seine eigene Datenbank pflegen. Er kann Benutzerpräferenzen, frühere Interaktionen oder andere relevante Informationen speichern, die ihm helfen, zukünftige Aufgaben besser zu bewältigen.
Und dann ist da noch das Konzept von Feedback Loops—das ich besonders spannend finde. Agenten können miteinander kommunizieren. Ein Agent kann mit der Erstellung eines Reiseplans beauftragt werden, ein anderer mit der Abwicklung von Buchungen, und ein dritter kann beides koordinieren. Sie können sogar einen Agenten haben, der andere beaufsichtigt oder schult. So entsteht ein autarkes und intelligentes Ökosystem.
Diese Feedback-Loops—in denen Agenten zusammenarbeiten und voneinander lernen - stecken noch in den Kinderschuhen. Sie sind schwer zu kontrollieren und zu verwalten, aber sie beginnen sich zu entwickeln. Und ich glaube, dass wir im Jahr 2025 eine Menge Innovationen sehen werden.
Wie AI-Agenten andere Modelle managen
David: Die Vorstellung, dass Agenten immer intelligenter werden, ist wirklich spannend. Aber könnten Sie genauer erklären, was es eigentlich bedeutet, wenn Agenten andere Modelle verwalten oder kontrollieren?
Gordian: Sicher, man kann es sich als ein größeres Workflow-System vorstellen. In einem solchen System können mehrere Bearbeiter an einer umfassenderen Aufgabe zusammenarbeiten. Sie könnten z. B. einen Koordinator haben, dessen Aufgabe es ist, den gesamten Prozess zu überwachen und den anderen Bearbeitern Aufgaben zuzuweisen. Dieser Gedanke taucht zwar häufig bei der Reiseplanung auf, ist aber in rechtlichen Szenarien ebenso relevant.
Der Koordinator legt das übergeordnete Ziel fest und delegiert Teilaufgaben an andere. An dieser Stelle werden die Dinge sowohl leistungsstark als auch komplex. Eines der Hauptprobleme der heutigen KI sind Halluzinationen - wenn Modelle Informationen erzeugen, die nicht korrekt sind. Um dies zu vermeiden, braucht man einen Agenten, der die Eingaben und Ausgaben der anderen Agenten überwacht. Diese Art der Überwachung ermöglicht die Schaffung eines größeren, zuverlässigeren Workflow-Systems, in dem alles kohärent zusammenpasst.
Wir planen, in Kürze einige juristische Anwendungsfälle für diesen Aufbau vorzustellen. Es gibt viel Potenzial, das wir noch weiter vertiefen können.
Für die Nutzer bedeutet dieser Wandel, dass KI-Agenten zwar auch im Jahr 2025 eher als Assistenten denn als vollwertiger Ersatz fungieren werden, ihr Einfluss aber dennoch erheblich sein wird. Ich denke nicht, dass wir davon ausgehen sollten, dass Agenten in absehbarer Zeit völlig autonom sein werden - das wäre unrealistisch. Wir befinden uns immer noch in einer Phase, in der der Mensch im Spiel bleibt, und das ist wichtig.
Eine große Veränderung, die die Benutzer jedoch bemerken werden, ist die Verringerung des Aufwands für die Eingabeaufforderung. Um gute Ergebnisse zu erzielen, muss man ein KI-System derzeit oft mehrmals auffordern, seine Eingaben zu verfeinern. Agenten können einen Großteil dieser Arbeit im Hintergrund erledigen. Das Ergebnis ist ein reibungsloseres Benutzererlebnis. Sie werden immer noch mit dem System interagieren, aber Sie müssen kein Experte in der Eingabeaufforderungstechnik sein. Das ist ein großer Schritt, um KI für ein breiteres Publikum zugänglich zu machen.
Aber es geht nicht nur um Agenten. Es gibt auch andere Trends, über die wir sprechen sollten - insbesondere die Verfügbarkeit verschiedener Modelle. Derzeit ist man noch stark auf KI-Modelle aus den USA angewiesen. In Zukunft wird es für Nutzer und Anbieter immer wichtiger werden, zwischen verschiedenen Modellen wählen und wechseln zu können, insbesondere wenn Agenten beteiligt sind. Flexibilität ist hier der Schlüssel, insbesondere im Hinblick auf den Datenschutz.
Ein weiteres aktuelles Thema ist die Quellenverifizierung. Halluzinationen sind immer noch ein großes Problem. Und wenn mehrere Modelle miteinander kommunizieren, erhöht sich das Risiko. Man möchte auf keinen Fall, dass sich die Modelle gegenseitig ständig mit falschen Informationen füttern - das ist nicht nur wenig hilfreich, sondern kann je nach Kontext auch gefährlich sein. Daher wird die Überprüfung der Quellen und die Validierung der zwischen den Modellen ausgetauschten Daten immer wichtiger.
Und schließlich werden Modellwechsel und -einsatz eine immer größere Rolle spielen. Da die Modelle kleiner und effizienter werden, steigt die Nachfrage nach On-Premise- und Private-Cloud-Lösungen. Dies gilt insbesondere für Europa, wo viele Unternehmen zögern, sich auf die großen US-amerikanischen Cloud-Anbieter zu verlassen. In hochsensiblen Bereichen wie der juristischen Arbeit zögern Unternehmen verständlicherweise, ihr geistiges Eigentum oder vertrauliche Daten externen Systemen zu überlassen. Der Bedarf an lokaler, kontrollierter Infrastruktur wird nur noch zunehmen.
Praktische Anwendungsfälle für KI-Agenten im Rechtswesen
David: Das war etwas allgemeiner gehalten. Aber wenn es um konkrete Anwendungsfälle für KI-Agenten geht - Gordian, wo siehst Du echte, praktische Anwendungen dieser Technologie im Legal Bereich?
Gordian: Ein gutes Beispiel ist die juristische Recherche. Stellen Sie sich einen Anwalt vor, der sich auf einen Fall vorbereitet und große Mengen an Informationen sammeln und prüfen muss. Ein KI-Agent könnte ihm dabei helfen, indem er relevante Materialien sammelt, sie ordnet, die wichtigsten Punkte zusammenfasst und sogar Quellenangaben macht. Der Agent könnte diese Zusammenfassung dann dem Anwalt zur Rückmeldung vorlegen, so dass ein reibungsloses Hin- und Hergehen möglich ist. Der Anwalt behält die Kontrolle, profitiert aber von einer höheren Geschwindigkeit und Genauigkeit - und der Agent könnte sogar Erkenntnisse aufdecken, die der Mensch allein nicht gefunden hätte.
Dies ist ein wichtiger Anwendungsfall, der bereits von mehreren Start-ups erforscht wird.
Ein weiterer vielversprechender Bereich sind Vertragsverhandlungen und Redlining. Unternehmen verfügen oft über spezifische Richtlinien und Verfahrensanweisungen, die festlegen, was in Verträgen akzeptabel oder verhandelbar ist. Ein KI-Agent kann auf diese internen Richtlinien trainiert werden und dann bei der Überprüfung oder Verhandlung von Verträgen mit Vertragspartnern helfen. Er könnte Vorschläge unterbreiten oder sogar automatische Verhandlungen auf der Grundlage rechtlicher Best Practices und Benutzereingaben durchführen.
Auch hier ist das Assistentenmodell der Schlüssel - der Benutzer behält die Kontrolle und kann entscheiden, ob er die Ergebnisse des Agenten akzeptiert, ablehnt oder ändert.
Ein weiteres interessantes Szenario ist die Risikobewertung und das Vertrag Lifecycle Management. Sie könnten einen Agenten für die Vertragsverhandlungen einsetzen und einen anderen, der ständig auf Änderungen der Vorschriften achtet. Wenn Änderungen auftreten, könnte der Überwachungsagent Aktualisierungen der internen Richtlinien Ihrer Rechtsabteilung vorschlagen. Auf der Grundlage dieser Aktualisierungen könnte ein anderer Agent dann automatisch alle bestehenden Verträge überprüfen und Risiken oder Unstimmigkeiten aufzeigen.
In diesem Fall arbeiten verschiedene Agenten zusammen: ein Agent konzentriert sich auf den rechtlichen Inhalt, ein anderer auf die Entwicklung der Vorschriften und ein dritter auf die Umsetzung. Diese kollaborative Agentenarchitektur könnte den manuellen Arbeitsaufwand erheblich reduzieren, ohne dass ein Jurist zur Validierung und Kontrolle des endgültigen Ergebnisses ausfällt.
Wann werden KI-Agenten die Vertragsverhandlungen allein führen?
David: Soweit ich weiß, wird die Vertragsverhandlung also zunehmend automatisiert. Was meinst Du, wie lange wird es dauern, bis zwei KI-Agenten einen Vertrag ganz allein aushandeln können?
Gordian: Das ist eine schwer zu beantwortende Frage. Die Wahrheit ist, dass wir noch nicht wissen, wie groß der Sprung im Jahr 2025 sein wird. Ich gehe davon aus, dass er beträchtlich sein wird, aber ich glaube, dass die KI immer noch hauptsächlich auf der Ebene der Assistenten arbeiten wird.
Also nein, ich glaube nicht, dass es in diesem Jahr zu völlig autonomen Verhandlungen zwischen Agenten kommen wird. Ich könnte mir jedoch vorstellen, dass sie in drei bis fünf Jahren Realität werden. Aber wie gesagt, das ist schwer vorherzusagen. Manchmal schreitet die KI-Entwicklung innerhalb eines Jahres unglaublich schnell voran - und dann flacht sie wieder ab.
Was wir aber meiner Meinung nach versprechen können, ist, dass KI die Nutzer zunehmend bei Verhandlungen unterstützen wird. Das allein wird schon erhebliche Effizienzgewinne bringen.
Wie Sie einen sicheren und intelligenten AI-Anbieter auswählen
David: Das macht Sinn. Und wenn wir über KI sprechen, ist es offensichtlich, dass der Datenschutz ein wichtiges Thema ist. Wie können Unternehmen bei der Auswahl eines KI-Anbieters Datenrisiken minimieren? Gibt es Möglichkeiten, klare Datenrichtlinien zu definieren? Oder allgemeiner gefragt: Wie treffen Sie eine kluge und sichere Wahl des Anbieters?
Gordian: Ja, das ist ein Schlüsselthema. Ein Teil der Antwort ist immer noch recht traditionell - Sie müssen Ihre Daten und den sie umgebenden Rechtsrahmen verstehen, insbesondere Dinge wie die DSGVO. Beginnen Sie damit, Ihre Daten zu kategorisieren: Welche Teile sind sensibler, welche weniger sensibel?
Sie sollten auch erwägen, Ihren KI-Anbieter frühzeitig in das Gespräch einzubeziehen. Stellen Sie ihm Fragen: Was geschieht mit Ihren Daten? Werden sie gespeichert, verarbeitet oder sogar für das Modelltraining verwendet? Können sie anonymisiert werden? All dies sind wichtige Überlegungen.
Je nach Ihren Präferenzen und rechtlichen Verpflichtungen können Sie entscheiden, dass bestimmte Daten nur vorübergehend verarbeitet werden oder Ihre Umgebung überhaupt nicht verlassen sollen. In solchen Fällen ist die Anonymisierung ein gangbarer Weg. Aber auch hier benötigen Sie die Werkzeuge und die Befugnis, diese Entscheidungen selbst zu treffen.
Einige Unternehmen ziehen es vielleicht sogar vor, ihre Modelle vollständig vor Ort auszuführen. Vor ein paar Jahren war das keine realistische Option, weil die Modelle einfach zu groß und zu teuer waren, um sie zu hosten. Aber heute ändert sich das. Wir beobachten ein zunehmendes Interesse an On-Premise- und Private-Cloud-Implementierungen - insbesondere in juristischen Umgebungen, in denen Vertraulichkeit eine wichtige Rolle spielt.
Wird KI junge Juristen ersetzen?
David: Werden juristische Nachwuchskräfte in Zukunft durch KI - oder KI-Agenten - ersetzt werden?
Gordian: Das ist definitiv eine provokante Frage. Aber wir sehen bereits zwei parallele Trends.
Einerseits kann man wohl mit Fug und Recht behaupten, dass mit dem gleichen Aufwand mehr Arbeit geleistet werden kann. In diesem Sinne: Ja, es wird zu Kostensenkungen kommen. Auf der anderen Seite werden die Erwartungen an junge Anwälte steigen. Ein Rechtsreferendar, der mit KI arbeitet, wird mehr leisten können als einer ohne KI. Das ist einfach die neue Realität.
Gleichzeitig sind auch andere Kräfte im Spiel, wie die zunehmende Regulierung, die die Arbeitsbelastung im Rechtswesen im Allgemeinen erhöht. Und dann ist da noch der demografische Wandel, der sich ebenfalls auswirkt.
Letztendlich glaube ich, dass sich diese Trends gegenseitig ausgleichen werden. Ich gehe davon aus, dass die Produktivität in den nächsten Jahren insgesamt deutlich steigen wird - aber auch die Arbeitsbelastung. Das bedeutet, dass Unternehmen, die keine KI einsetzen, ein echtes Problem haben werden. Die Arbeitsmenge, die von den Rechtsteams erwartet wird, wächst, und ohne KI wird sie mit demselben Personalbestand einfach nicht zu bewältigen sein.
Outlook
David: Gordian, könntest du uns einen kurzen Ausblick darauf geben, woran du derzeit arbeitest?
Gordian: Ganz genau. Wir haben dies bereits angesprochen, aber einer der schwierigsten Aspekte ist derzeit die Erstellung von Prompts. Wenn Benutzer neue Vertragsarten prüfen wollen, müssen sie oft definieren, was genau sie prüfen wollen, die Prompts entsprechend verfassen und dann passende Testsets erstellen. Dieser Prozess ist zeitaufwändig und sehr manuell.
Genau hier setzen unsere Agenten der nächsten Generation an. Wir entwickeln derzeit Agenten, die die Nutzer bei der gesamten Einrichtung unterstützen können. In naher Zukunft werden die Nutzer also in der Lage sein, jeden Vertrag - unabhängig von der Vertragsart - viel schneller und mit minimalem manuellen Aufwand zu prüfen.
Eine weitere wichtige Entwicklung ist die Qualitätskontrolle. Derzeit verlassen wir uns auf unsere eigenen Testsets, um die Qualität der Ausgabe zu gewährleisten. Künftig werden wir Agenten einführen, die die Ergebnisse der KI automatisch überprüfen können. Das bedeutet, dass wir eine höhere Qualität bieten können - und gleichzeitig den Prozess an die Risikotoleranz der verschiedenen Rechtsabteilungen und an die spezifischen Vertragstypen anpassen können, die verwendet werden.
Das öffnet die Tür für etwas wirklich Spannendes: autonome Vertragsprüfungen. Wir glauben, dass wir bei einfacheren Vertragstypen wie NDAs schon bald einen Grad an Vertrauen und Qualität erreichen können, bei dem ein Vertrag nicht nur geprüft, sondern auch korrigiert wird - automatisch. In solchen Fällen könnte das Dokument sogar an die Gegenpartei zurückgeschickt werden, ohne dass eine manuelle Überprüfung erforderlich wäre.
Und wie wir bereits besprochen haben, ist das Playbook Management ein weiterer Bereich, in dem Agenten eine große Hilfe sind. Viele Unternehmen aktualisieren nur selten ihre Vertragsrichtlinien oder Grundsätze. Mit unserem System helfen Agenten bei der Erstellung oder Aktualisierung dieser internen Richtlinien, was es einfacher macht, qualitativ hochwertige rechtliche Standards festzulegen und aufrechtzuerhalten.
Das Gleiche gilt für bestehende Playbooks. Vorschriften ändern sich. Branchenstandards entwickeln sich weiter. Und manche Positionen sind möglicherweise nicht mehr durchsetzbar. Unsere KI-Agenten sind in der Lage, diese Veränderungen zu erkennen und proaktiv Aktualisierungen vorzuschlagen, damit Ihre internen Richtlinien immer auf dem neuesten Stand sind.
Und schließlich ist es dank umfangreicher Sprachmodelle in Kombination mit Agenten jetzt möglich, neue Sprachen viel schneller als bisher zu erschließen. Das bringt echte Skalierbarkeit in die Legal AI.
Möchten Sie einen schnellen Überblick über alle Ihre aktiven Verträge?
Fragen und Antworten aus dem Publikum
Was genau ist das europäische OpenGPT-X? Wird es auf EU-Servern gehostet, und wie sieht es mit dem Datenschutz aus?
Gordian: Ja, OpenGPT-X ist ein Open-Source-Sprachmodell, das hauptsächlich von europäischen Unternehmen und gemeinnützigen Organisationen entwickelt wurde. Der Hauptunterschied zu US-amerikanischen Modellen besteht darin, dass es nicht nur auf Englisch, sondern auch auf Deutsch, Französisch und anderen europäischen Sprachen trainiert wurde. Diese mehrsprachige Grundlage macht es für Anwendungsfälle in ganz Europa besser geeignet.
Ein weiterer großer Vorteil ist, dass das Programm relativ leicht ist und eine solide Qualität aufweist, was bedeutet, dass Sie es auf Ihren eigenen Servern hosten können - ein großes Plus in Bezug auf den Datenschutz. Allerdings gibt es keine gebrauchsfertige, gehostete Version aus einer zentralen europäischen Quelle, so dass Sie sie selbst einrichten und verwalten müssen.
Könnten Sie in Zukunft etwas ausführlicher auf die Quellenüberprüfung eingehen?
Gordian: Sicher. Die zentrale Herausforderung bei der Quellenüberprüfung ist direkt mit Halluzinationen verbunden - wenn ein Modell falsche oder nicht überprüfbare Informationen erzeugt. Derzeit wird KI in der Regel in Zusammenarbeit mit einem Menschen eingesetzt, was dieses Risiko eindämmt. Wenn das Modell jedoch Informationen aus unzuverlässigen Quellen bezieht, kann der Benutzer die Herkunft nicht ohne Weiteres überprüfen, es sei denn, er liest sich alle Dokumente durch.
Das ist genau das, was sich ändern muss. Künftig wird von Modellen erwartet, dass sie direkt auf die Quelle ihrer Antworten verweisen. In unserem Fall bei Legartis heben wir bereits den genauen Satz im Vertrag hervor, der als Grundlage für die Entscheidung der KI diente. So können die Nutzer sofort überprüfen, ob die Schlussfolgerung gerechtfertigt ist - ohne das gesamte Dokument zu durchforsten.
Eine weitere wichtige Verbesserung wird die Erklärbarkeit sein. Manchmal gibt es eine Diskrepanz zwischen dem, was der Benutzer gefragt hat, und dem, was das Modell verstanden hat. Deshalb sollte das Modell nicht nur eine Antwort geben, sondern auch erklären, wie es zu dieser Schlussfolgerung gekommen ist. Dies wird immer wichtiger werden, vor allem in rechtlichen Anwendungsfällen.
Es gibt Berichte über generative KI, die gefälschte Gerichtsvorladungen erstellt. Kann dies bei juristischen Anwendungen abgemildert werden?
Gordian: Ja, das steht in direktem Zusammenhang mit dem, was ich gerade über die Quellenüberprüfung erklärt habe. Eine weitere wichtige Maßnahme ist die Erstellung rechtlicher Benchmarks, die auf Ihren spezifischen Anwendungsfall zugeschnitten sind. Diese ermöglichen es Ihnen, Aufforderungen und Agenten systematisch zu testen, so dass Sie wissen, ob sie sich wie beabsichtigt verhalten.
Der letzte Punkt ist, dass ein Mensch in der Schleife bleibt. Wenn Sie Quellenverifizierung, Benchmark-Tests und menschliche Aufsicht miteinander kombinieren, können Sie selbst in sensiblen rechtlichen Kontexten Halluzinationen abmildern und gleichzeitig von der Geschwindigkeit und Effizienz der KI profitieren.
Was ist mit der nächsten Generation von Juristen? Wie werden junge Juristen Berufserfahrung sammeln, wenn die KI einen Großteil ihrer Arbeit übernimmt?
David: Das ist eine große und wichtige Frage - und keine, auf die es eine einfache Antwort gibt. Universitäten, Anwaltskanzleien und Rechtsabteilungen müssen sich alle aktiv damit auseinandersetzen.
Zurzeit gibt es in Europa nur sehr wenige Universitäten, die Legal Tech oder Legal AI in ihren Lehrplan aufnehmen. Aber diese Technologien verändern bereits die Art und Weise, wie junge Juristen Erfahrungen sammeln. In Zukunft werden wir gemischte Modelle brauchen, bei denen Rechtsreferendare sowohl das Recht als auch den effektiven Einsatz von KI-Tools lernen.
Es gibt Ausbildungsansätze, die traditionelle juristische Aufgaben mit KI-Tools kombinieren, aber das ist noch eine offene Herausforderung. Eines ist klar: Diese Frage wird uns in den nächsten Jahren noch beschäftigen.
Werden KI-Agenten so leistungsfähig werden, dass sie bestimmte Anwälte vollständig ersetzen?
Gordian: Wir haben das schon einmal angesprochen. Bei bestimmten, sich wiederholenden Aufgaben ist eine Ersetzung realistisch. Aufgaben wie die Überprüfung einfacher Verträge, die Erstellung von Standarddokumenten oder die Analyse großer Datenmengen sind Bereiche, in denen KI-Agenten definitiv die Arbeit übernehmen werden.
Aber das hängt auch davon ab, welches Qualitätsniveau verlangt wird. Wenn 100 %ige Perfektion erwartet wird, bleibt die menschliche Kontrolle unerlässlich. Wenn jedoch die „80/20“-Regel gilt - bei der 80 % für bestimmte Aufgaben ausreichen -, dann wird die KI viele dieser Aufgaben selbständig übernehmen.
Was genau verstehen Sie unter „Unternehmensrichtlinien“, um eine gültige KI-gestützte Vertragsprüfung durchzuführen? Wie sollte ein solches Dokument aufgebaut sein?
David: Das ist eine gute Frage. Wir stellen häufig fest, dass die bei der Vertragsprüfung angewandten Regeln nicht formell dokumentiert sind, sondern in den Köpfen der Juristen existieren. Das erschwert die Skalierung und Automatisierung.
In angelsächsischen Märkten erstellen Unternehmen zunehmend so genannte „Playbooks“. Dabei handelt es sich um strukturierte Checklisten, die festlegen, was in einem Vertrag akzeptabel, inakzeptabel, erforderlich oder optional ist. Zum Beispiel:
„Wir akzeptieren nur Gerichtsstandsklauseln, die Gerichte in der Schweiz, Deutschland oder Österreich aufführen.“
„Wir akzeptieren niemals Gerichte mit Sitz in Asien“.
Das ist die Art von Regeln, die in ein solches Regelwerk gehören würden.
Diese Art von Richtlinien, die klar und konsequent niedergeschrieben sind, ermöglichen es Systemen wie Legartis, bei der Vertragsprüfung effektiv zu helfen.
Empfohlene Artikel
Trends 2025 bei KI- Vertragsanalyse
Die neuesten Trends bei Large Language Models (LLMs) zeigen eine Verlagerung hin zu mehr Effizienz, fortschrittlichen KI-Agenten und einer breiteren Akzeptanz in allen..
Legal AI Talk: Neueste Large Language Model Trends
LargeLanguageModels (LLMs) revolutionierendieRechtsbrancheund unterstützendieVertragsanalyse, Dokumentenautomatisierungund auch den Research-Bereichmit einer..