Im „Legal-AI-Talk“ über die neuesten Trends bei LLMs, der am 22. Januar 2025 stattfand, diskutieren die Experten Dr. Maria Börner, Head AI Competence Center bei Westernacher Solutions, Dr. Nils Feuerhelm, Legal Engineer & Legal AI Consultant, Gordian Berger, CTO von Legartis, und David Alain Bloch, CEO & Co-Founder von Legartis über die Entwicklung und Trends der großen Sprachmodelle (LLMs) und deren Implikationen für die Rechtsbranche.
Gordian: Im Jahr 2024 verbesserten sich die KI-Basismodelle allmählich, aber es gab keine großen Durchbrüche im Vergleich zu den Vorjahren. Während die Benutzer einige Verbesserungen bei Modellen wie ChatGPT bemerkten, war die bedeutendste Änderung die Möglichkeit, mit weniger Rechenressourcen die gleichen Benchmark-Ergebnisse zu erzielen. Dieser Trend führte zu niedrigeren Kosten und tragfähigeren Geschäftsanwendungen. Obwohl KI-Modelle effizienter wurden, zeichnete sich ein widersprüchlicher Trend ab, bei dem hoch ressourcen-intensive Modelle wie das kostenlose Modell von OpenAI eine deutlich bessere Leistung zeigten. Aufgrund der hohen Kosten sind diese Modelle jedoch noch nicht für den breiten Einsatz geeignet, weisen aber auf das Potenzial für zukünftige Fortschritte hin.
Der europäische Sektor hat mit der Entwicklung eigener KI-Modelle wie Open GPT-X begonnen. Mit zunehmender Sorge um die Datensouveränität wächst die Nachfrage nach europäischen Alternativen zu dominierenden KI-Systemen in den USA. Während sich die Basismodelle nicht drastisch verändert haben, lernten Lösungsanbieter, wie sie ihre Nutzung optimieren können, was zu praktischeren Anwendungen führt. Im Jahr 2024 hat die KI-Akzeptanz zugenommen - zusammen mit dem Erscheinen der ersten wirklich profitablen KI-unterstützten Business-Use-Cases.
Einer der größten Trends im Jahr 2024 - und einer der Hauptschwerpunkte für 2025 - sind KI-Agenten (AI Agents). Im Gegensatz zu einfachen Chatbots können KI-Agenten mit APIs interagieren, Daten abrufen, auf E-Mails zugreifen, Suchanfragen durchführen und sogar mit anderen KI-Modellen kommunizieren. Dies eröffnet neue Möglichkeiten, insbesondere für Legal Tech-Anbieter. KI als echter Legal Assistant? Das wird in naher Zukunft möglich jetzt. KI-Agenten verfügen jetzt über die Fähigkeit für sogenannte Long-Term-Memories, das heisst, dass sie sich an Benutzerinteraktionen erinnern und historische Daten speichern können. Dies verbessert ihre Fähigkeit, personalisierte Antworten bereitzustellen und sich durch autonomes Lernen und Korrekturen kontinuierlich zu verbessern. Die Entwicklungen des Jahres 2024 haben die Grundlage für anspruchsvollere KI-Anwendungen gelegt, die KI effizienter, zugänglicher und branchenübergreifender machen, auch und insbesondere für den Rechtsbereich.
Maria: Ein bedeutender Trend ist der zunehmende Einsatz von ChatGPT im persönlichen Umfeld. „Freunde und Kollegen“ nutzen es für Aufgaben wie „Rezepte erstellen“, „Briefe schreiben“ und sogar für „kleine rechtliche Angelegenheiten“. Während große rechtliche Problem- und Fragestellungen noch immer von "echten" Anwälten behandelt werden müssen, wenden sich Menschen bei kleineren rechtlichen Anfragen an KI. Darüber hinaus wird ChatGPT vor allem in der „Weihnachtszeit“ für „emotionale Verbindungen“ genutzt, wo Menschen als „Chatbot-Freund“ mit ihm interagieren. Einige nutzen die KI sogar, um mithilfe von Daten von Plattformen wie „WhatsApp“ die Stimmen und Bilder verstorbener Angehöriger „nachzubilden“.
KI hat sich zu einem "Gamechanger" im Marketing entwickelt. Auf einer „Marketing-Konferenz“ wurde gezeigt, wie „KI-generierte Inhalte“ die Branche umgestalten. „Adidas hat ein ganzes Marketing-Video mit KI produziert“, heißt es in dem Bericht. KI sei auch in der Lage, „Podcasts mit KI-generierten Diskussionen“ zu erzeugen, die völlig real klingen, sowie „Präsentationen und Business-Pitches zu erstellen“. Der „starke Einsatz von großen Sprachmodellen im Marketing“ liefere „beeindruckende und vernünftige Ergebnisse“ und mache KI zu einem unverzichtbaren Werkzeug für die Erstellung von Inhalten.
Im juristischen Bereich wird KI vor allem durch „ChatGPT-basierte Anwendungsfälle“ eingesetzt. Anwälte nutzen KI für Aufgaben wie „Ausarbeitung und Überprüfung von Verträgen“, „Informationsextraktion“ und „Kunden-Onboarding“. KI erleichtert auch die „E-Mail-Kommunikation“ und verbessert „Kundeninteraktionen“. Diese KI-unterstützten Lösungen rationalisieren juristische Workflows und machen Prozesse effizienter.
Nils: „ChatGPT ist mittlerweile bei fast jedem Anwalt angekommen“ und „jeder experimentiert damit“. Die Technologie sei mittlerweile im Rechtsbereich weit verbreitet und bedeute eine deutliche Verschiebung bei der Einführung von KI. Es habe einen Anstieg der „Investitionen in Legal Tech und Legal Startups“ gegeben. Legal KI sei nicht mehr „vom Radar der VCs“, was die Innovation in diesem Bereich beschleunige. „Vor fünf bis zehn Jahren galt Legal Tech noch nicht als attraktiv, aber mit KI hat sich das geändert“, so der Experte.“
Ein weiterer aufkommender Trend ist die Fokussierung auf „domänenspezifische KI-Modelle“. In Deutschland arbeiten Legal KI-Anbieter in verschiedenen Rechtsordnungen an „spezifischen rechtlichen KI-Modellen“, die auf regionale rechtliche Rahmenbedingungen zugeschnitten sind. Es gebe nun „weniger Fokus auf die technische Entwicklung“ und „mehr Betonung auf Benchmarks“. Das „0.1-Preview-Modell“ sei zwar erschienen, habe aber „keinen großen Hype“ ausgelöst. „GPT-3 ist zwar zu erwarten“, es sei aber „super teuer“, weshalb die Rechtsbranche „echte Anwendungsfälle vor neuen Modellen“ priorisiert. Die Rechtsbranche setzt nun auf „bessere Argumentationsfähigkeiten“, insbesondere für „echte rechtliche Anwendungsfälle“. Ziel ist es, „echten Nutzen in rechtlichen Instrumenten zu finden“, um KI in der Branche praktischer und nützlicher zu machen.
Maria: KI-Modelle schneiden in Englisch außergewöhnlich gut ab, aber ihre Leistung in Sprachen wie Französisch, Spanisch und anderen europäischen Sprachen ist nach wie vor eine erhebliche Herausforderung. Dies ist insbesondere in Europa relevant, wo mehrsprachige Fähigkeiten von entscheidender Bedeutung sind. Eine wichtige Entwicklung in diesem Bereich ist OpenGPTX, ein europäisches KI-Modell, das nur auf 50% englischen Daten trainiert ist, verglichen mit dem LLaMA von Meta, das auf 89% englischen Daten trainiert wurde. OpenGPTX enthält einen höheren Anteil an deutschen, französischen und spanischen Daten und eignet sich daher besser für mehrsprachige Anwendungen und rechtliche Kontexte in ganz Europa.
Ein weiteres großes Problem ist die KI-Regulierung und der Datenschutz. Viele Anwender verlassen sich auf ChatGPT, ohne die Auswirkungen der Datennutzung vollständig zu berücksichtigen. Bei der Verwendung der offenen Version können Daten für weitere KI-Schulungen verwendet werden, was insbesondere für Unternehmen und Rechtsanwälte, die mit sensiblen Informationen umgehen, Risiken birgt. Um dies zu mildern, ist es wichtig, Unternehmensversionen von Legal AI-Tools zu verwenden und sich der Art der eingegebenen Daten bewusst zu sein. Dies ist insbesondere für Rechtsanwälte relevant, die in einigen Fällen unwissentlich Geschäftsgeheimnisse oder vertrauliche rechtliche Informationen in KI-Systeme eingegeben haben und dadurch möglicherweise sensible Daten preisgeben.
In der Rechtsbranche wird KI zunehmend als Wissensbasis genutzt. Allerdings sind KI-generierte Rechtsreferenzen nicht immer genau, und es gab Fälle, in denen Anwälte unwissentlich erfundene oder falsche Rechtsentscheidungen in offiziellen Dokumenten zitierten. Trotz des Bewusstseins für dieses Thema kommt es immer wieder zu solchen Vorfällen, die die Notwendigkeit einer Überprüfung durch externe Quellen wie Google oder Rechtsdatenbanken unterstreichen. Aufklärung und Bewusstsein für die Grenzen der KI sind entscheidend, um ihren verantwortungsvollen Einsatz in rechtlichen Rahmenbedingungen zu gewährleisten.
Gerichte und Richter sind bei der Einführung von KI in erster Linie aufgrund der erforderlichen erheblichen Rechenressourcen nur zögerlich vorgegangen. Die meisten KI-Systeme verlassen sich auf Cloud-Dienste wie Azure oder AWS, aber aufgrund des U.S. Cloud Act könnten Daten, die auf diesen Plattformen gespeichert sind, möglicherweise von US-Behörden abgerufen werden. Dies macht solche Cloud-Lösungen für Gerichtsanwendungen ungeeignet, da Gerichte eine hochsichere und lokale Datenspeicherung benötigen. Infolgedessen wächst das Interesse an der Entwicklung kleinerer KI-Modelle, die auf lokalen Cloud-Anbietern laufen können, wodurch die Abhängigkeit von großen, ausländischen Cloud-Infrastrukturen verringert wird.
Der Wechsel zu kleineren KI-Modellen ist nicht nur vorteilhaft für Sicherheit und Kosteneffizienz, sondern auch für die Nachhaltigkeit. Kleinere Modelle benötigen weniger Ressourcen, verbrauchen weniger Energie und sind umweltfreundlicher. Da sich KI weiter entwickelt, geht der Trend zu effizienteren und spezialisierteren Modellen, die Leistung, Sicherheit und Umweltbelastung in Einklang bringen.
David: "Und ein kleineres Modell bedeutet ja nicht zwingend weniger oder schlechtere Ergebnisse. Es kann definitiv sogar bedeuten, dass Sie bessere Ergebnisse für genau das, was Sie tatsächlich brauchen.“
Gordian: Viele Unternehmen, darunter auch Konzerne und Anwaltskanzleien, entwickeln zunehmend eigene Proof-of-Concept-Lösungen (POCs) und KI-Lösungen. Dies spiegelt zwar ein wachsendes Interesse an KI wider, bringt aber sowohl Vorteile als auch Herausforderungen mit sich. Positiv ist, dass Unternehmen mit vorhandenen Frameworks schnell einfache KI-Tools erstellen und so experimentieren können, ohne auf externe Anbieter angewiesen zu sein.
Die eigenständige Entwicklung einer KI-Lösung birgt jedoch auch Risiken. Viele Unternehmen unterschätzen die erforderlichen Investitionen, was zu Skaleneffekten und unerwarteten Kosten führt. Während Lösungsanbieter umfangreiche Ressourcen in die KI-Entwicklung stecken, müssen sich Unternehmen, die ihre eigenen POCs aufbauen, auch auf laufende Wartung und Benchmarking verpflichten, um die Qualität zu gewährleisten.
Darüber hinaus entwickelt sich die KI-Landschaft ständig weiter, was bedeutet, dass heute entwickelte Lösungen innerhalb weniger Monate veraltet sein können, wenn sie nicht regelmäßig aktualisiert werden. Unternehmen müssen langfristige Wartung, Einhaltung von Vorschriften wie dem KI-Gesetz und allgemeine Anpassungsfähigkeit berücksichtigen, um mit dem technologischen Fortschritt Schritt zu halten. Diese Herausforderungen unterstreichen die Notwendigkeit einer sorgfältigen Planung bei der Integration von KI in Unternehmens- und Rechtsumgebungen.
Maria: KI wird immer einfacher zu bedienen, viele Menschen verlassen sich für verschiedene Aufgaben auf Tools wie ChatGPT. Ein großes Risiko liegt jedoch im Datenschutz, da Nutzer oft Fotos, persönliche Daten und sogar Gespräche hochladen, ohne zu bedenken, dass diese Informationen für KI-Schulungen genutzt oder sogar missbraucht werden können. In einigen Ländern teilen Menschen ihre Daten bereitwillig mit Cloud-Anbietern, oft ohne zu wissen, wie ihre Informationen gespeichert oder verarbeitet werden.
In Europa sorgen strenge Vorschriften wie der AI Act, der Data Act und der Cloud Act dafür, dass der Datenschutz durch Design stärker in den Fokus rückt. Das bedeutet, dass in Europa entwickelte KI-Lösungen von Anfang an darauf ausgelegt sind, Daten sicher zu halten und sicherzustellen, dass Informationen auf den Geräten der Nutzer verbleiben oder nur bei zugelassenen Cloud-Anbietern gespeichert werden. Dies erhöht zwar die Sicherheit der Nutzer, führt aber auch zu Herausforderungen - einige große KI-Unternehmen meiden derzeit den europäischen Markt aufgrund regulatorischer Bedenken. So hat sich beispielsweise Meta entschieden, eine aktualisierte Version von LLaMA in der EU aufgrund von Urheberrechtsproblemen und Compliance-Befürchtungen nicht zu veröffentlichen.
Ein weiteres kritisches Thema sind die Umweltauswirkungen von KI. Die CO2-Bilanz der GPT-3-Ausbildung entspricht dem Betrieb von fünf benzinbetriebenen Autos während des gesamten Produktionsprozesses. Die tägliche Nutzung von KI verursacht sogar mehr Emissionen als das anfängliche Training, was den Verbrauch von KI zu einem bedeutenden Umweltproblem macht. Eine einzelne ChatGPT-Abfrage erzeugt den zehnfachen CO2-Fußabdruck einer Google-Suche, dennoch nutzen viele Menschen ChatGPT zur Wissensgewinnung, obwohl Google zuverlässigere Informationen mit einer geringeren Umweltbelastung liefert.
Die Aufklärung der Nutzer über Datensicherheit und den ökologischen Fußabdruck der KI ist von entscheidender Bedeutung. KI bietet zwar viele Vorteile, hat aber auch ihren Preis, und das Bewusstsein für diese Auswirkungen wird in Zukunft immer wichtiger werden.
Maria: Vorschriften, insbesondere im Bereich des Datenschutzes, sind nicht nur Einschränkungen, sondern auch Innovationsmotoren. Ein Beispiel ist das Federated Learning (FL), mit dem KI-Modelle direkt auf dem Gerät eines Nutzers trainiert werden können, ohne dass Rohdaten mit der Cloud geteilt werden. Stattdessen wird nur das trainierte Modell übermittelt, was eine größere Datensicherheit gewährleistet und dennoch Fortschritte bei der KI ermöglicht. Anstatt die europäischen Vorschriften als Hindernis zu sehen, können sie eine Quelle des technologischen Fortschritts sein. Europas Fokus auf sichere KI-Lösungen fördert die Entwicklung von Innovationen, bei denen der Schutz der Privatsphäre im Vordergrund steht. So kann Europa im globalen Wettbewerb bestehen und gleichzeitig hohe Standards für Datenschutz und KI-Effizienz aufrechterhalten.
Nils: KI bietet erhebliche Effizienzgewinne für Juristen, da sich wiederholende Aufgaben wie die Überprüfung von Dokumenten und juristische Recherchen reduziert werden. Dadurch können sich Anwälte und Richter auf komplexe Rechtsangelegenheiten konzentrieren, anstatt Zeit mit der Suche nach Informationen zu verbringen. Über die Effizienz hinaus ermöglicht die KI auch neue Geschäftsmodelle im Rechtssektor. Durch die Senkung der Kosten und die Verbesserung des Zugangs zum Recht können KI-gestützte Dienste den Rechtsbeistand erschwinglicher und zugänglicher machen. Ein gutes Beispiel dafür sind Flugentschädigungsdienste, die den Prozess der Rückerstattung durch Automatisierung rationalisiert haben. Ähnliche KI-unterstützte Rechtsdienstleistungen könnten auch in anderen Bereichen entstehen und die Rechtsberatung kostengünstiger und leichter zugänglich machen.
KI verbessert auch den Kundenservice: Chatbots und automatisierte Tools für die juristische Ausbildung helfen den Nutzern bei der Navigation durch juristische Prozesse, z. B. bei der Unterstützung bei der Steuererklärung. Davon profitieren sowohl Nicht-Juristen, die Rat suchen, als auch Juristen, die Unterstützung bei ihrer Arbeit benötigen.
Eine zentrale Herausforderung ist die Frage, wie sich die juristische Ausbildung mit KI weiterentwickeln wird. Da KI jetzt Verträge entwerfen und Rechtsdokumente sofort erstellen kann, müssen Juristen ihren Schwerpunkt auf die Überprüfung von KI-generierten Inhalten verlagern, anstatt sie von Grund auf neu zu erstellen. Allerdings müssen die Universitäten KI noch effektiv in ihre Lehrpläne integrieren, so dass unklar ist, wie sich die juristische Ausbildung in Zukunft anpassen wird.
Gordian: Anbieter von KI-Lösungen müssen sich aufgrund der sich ständig verbessernden KI-Technologie und der sich ändernden Compliance-Vorschriften an flexible Modelle anpassen. Wenn ein Modell eingeschränkt wird, müssen die Anbieter darauf vorbereitet sein, das Modell zu wechseln, ohne die Qualität zu beeinträchtigen. Diese Flexibilität erstreckt sich auch auf aufgabenspezifische Modelle, da verschiedene Modelle bei der Identifizierung rechtlicher Themen oder der Umformulierung von Klauseln auf der Grundlage individueller Anforderungen besser abschneiden.
Ein weiterer wichtiger Trend ist der Bedarf an On-Premise-KI-Lösungen, insbesondere im Rechtsbereich, wo streng vertrauliche Verträge nicht mit Anbietern geteilt werden dürfen. Daher müssen Anbieter kleinere Modelle unterstützen und herstellerunabhängige Plattformen anbieten, die es den Kunden ermöglichen, KI in ihrer eigenen Infrastruktur zu hosten. Glücklicherweise wird die Qualität kleinerer KI-Modelle immer besser, so dass die Einführung von KI vor Ort leichter möglich ist. Transparenz und Nachvollziehbarkeit werden zu erwarteten Merkmalen von KI-Lösungen. Die Nutzer wollen verstehen, wie KI zu Entscheidungen kommt, um Missverständnisse durch falsch interpretierte Eingabeaufforderungen oder fehlenden Kontext zu vermeiden. Die Bereitstellung klarer Erklärungen in KI-Tools hilft den Nutzern, ihre Eingaben zu verfeinern und bessere Ergebnisse zu erzielen.
Eine wichtige Veränderung im Jahr 2025 wird die Automatisierung durch KI-Agenten sein. Bisher mussten die Nutzer manuell Eingabeaufforderungen eingeben, um von der KI generierte Ergebnisse zu erhalten. Mit KI-Agenten kann das System selbst Prompts generieren, wodurch der Bedarf an Prompt-Ingenieuren sinkt und die KI mit minimaler Überwachung durch Experten autarker wird. Dieser Trend wird für Anbieter von KI-Lösungen zu mehr Automatisierung und Effizienz führen.
Nils: Es wird erwartet, dass KI-Agenten der nächste große Trend sein werden, der die Automatisierung von Arbeitsabläufen, komplexen Aufgaben und mehrstufigen Prozessen vorantreibt. Im Gegensatz zu einfachen benutzerdefinierten GPTs werden echte KI-Agenten mehrere LLMs integrieren, um fortgeschrittene juristische Aufgaben zu erledigen, wie z. B. die Erstellung von Verträgen und die Bearbeitung von Forderungen. Juristische Prozesse umfassen Recherchen, das Sammeln von Kundeninformationen und eine iterative Kommunikation, was sie für eine einzelne KI-Eingabeaufforderung zu komplex macht. Stattdessen werden die Automatisierung von Aufgaben und die KI-gesteuerte Neugestaltung von Prozessen in diesem Jahr die wichtigsten Herausforderungen und Entwicklungen sein. Ein weiterer wichtiger Trend ist die Kombination von juristischem Fachwissen mit Anbietern von KI-Tools, wie das Beispiel von DORA zeigt, wo Anwaltskanzleien mit KI-Entwicklern zusammenarbeiten, um hochwertige, spezialisierte KI-Lösungen zu entwickeln.
Maria: Ein wichtiger positiver Trend für das kommende Jahr ist die Kombination von generativer KI mit einer Wissensbasis, die es den Nutzern ermöglicht, Quellen zu überprüfen und den von der KI generierten Informationen zu vertrauen. Dieser Fokus auf erklärbare KI wird von entscheidender Bedeutung sein, um Transparenz bei der KI-Entscheidungsfindung zu gewährleisten, nicht nur bei der Texterstellung, sondern auch in Bereichen wie der Bilderkennung im rechtlichen Kontext. Ein signifikanter negativer Trend ist jedoch die Zunahme von Deepfakes, insbesondere in Wahlperioden. KI-generierte Inhalte sind inzwischen so weit fortgeschritten, dass es schwierig ist, zwischen echten und gefälschten Inhalten zu unterscheiden. Die EU-Verordnungen schreiben zwar die Kennzeichnung von Deepfakes vor, doch dies verhindert nicht den kriminellen Missbrauch, der immer mehr Anlass zur Sorge gibt.
Ein weiteres wichtiges Thema sind die Kosten für KI-Modelle. Die Modelle werden zwar immer kleiner und billiger, aber große Anbieter wie OpenAI und Microsoft müssen ihre Investitionen erst noch wieder einspielen. Es bleibt ungewiss, ob KI-Dienste wie ChatGPT und Copilot aufgrund der hohen Ressourcen- und Schulungskosten in Zukunft Preiserhöhungen erfahren werden. Die KI-Preise werden sich wahrscheinlich ändern, wenn neue Modelle eingeführt werden, wobei OpenAI seine Modelle ständig aktualisiert.
Ein Hauptproblem ist die mit der Zeit abnehmende Effizienz von KI-Modellen. Da die KI immer mehr Texte und Bilder generiert, werden künftige Modelle eher aus KI-generierten Inhalten als aus realen Daten lernen, was die Qualität beeinträchtigen kann.
Gordian: Die Einführung von KI-Tools ist noch im Gange, wobei große Technologieunternehmen KI in ihre Ökosysteme integrieren. Google Workspace hat Gemini für alle Nutzer aktiviert, und auch Apple und Microsoft integrieren KI in ihre Plattformen. Der Erfolg dieser Integrationen wird von der Zufriedenheit der Nutzer und der Rentabilität abhängen.
Ein wichtiger Trend für das Jahr 2025 sind KI-Agenten, die jedoch Sicherheitsrisiken mit sich bringen, insbesondere Prompt Injections. Autonome Agenten mit E-Mail-Zugang könnten von externen Akteuren manipuliert werden, wodurch sensible Daten wie Passwörter offengelegt werden könnten. Dies unterstreicht die Notwendigkeit eines sorgfältigen KI-Einsatzes und von Maßnahmen zur Datensicherheit. Startups arbeiten bereits an Lösungen, aber Bewusstsein und Risikomanagement bleiben entscheidend.
David: Vielen Dank an Nils, Maria und Gordian für Ihre Teilnahme am heutigen Legal AI Talk. Und ein großes Dankeschön an unser Publikum!
Gordian: Ich würde also sagen, generative KI ist ein allgemeiner Begriff für all diese größeren Modelle, die generieren können, und das große Sprachmodell ist eher ein spezifischer Begriff, der sich auf Sprache bezieht. Da es sich um Sprache handelt, enthält es zum Beispiel keine Modelle, die Bilder usw. erzeugen, die spezifisch für die Aufgaben sind.
Maria: Um ehrlich zu sein, sind sie mehr oder weniger negativ eingestellt, denn wenn man KI in der strafrechtlichen Ermittlung einsetzt, wird das KI-Gesetz der Europäischen Union ein hohes Risiko darstellen. Und ich denke, dass die Gerichte in diesem Fall nicht so viel Geld investieren werden, um diese Art von KI wirklich einzurichten, denn wenn es sich um ein Hochrisikoumfeld handelt, müssen KI-Systeme die Compliance erfüllen, und das wird viel Zeit in Anspruch nehmen und ist ziemlich teuer.
Ich sehe aber auch, dass man KI nutzen kann, um in den sozialen Medien negative Dinge, negative Kommentare oder unwahre Dinge herauszufiltern, aber wir sehen, wie auf Meta, dass die Leute das nicht wollen und dieses Thema nicht weiterverfolgen.
Nils: Ich sehe einen positiven Trend. Ich denke, ein großes Potenzial ist, dass wir große Datensätze mit KI viel einfacher analysieren können, auch in der Strafermittlung. Auch in und durch soziale Medien, und soweit ich weiß, arbeitet zumindest in Deutschland die Justiz im Moment auch daran, weil es natürlich viel einfacher ist, Muster zu finden.
Sie wissen, dass die digitale Forensik in den nächsten Jahren durch die KI ebenfalls zunehmen wird, natürlich etwas langsamer als draußen, aber ich denke, sie arbeiten daran und das wird auch in den nächsten Jahren kommen.
Gordian: Ich stimme mit seiner Aussage einigermaßen überein. Ich denke, es gibt einen großen Unterschied zwischen den verschiedenen Anbietern. Ich denke, dass viele der bestehenden Plattformen einfach, ich würde sagen, KI drauflegen und dann Geld verlangen. Ich würde auch fragen, wo der Nutzen im Vergleich zum Wert liegt. Ich meine, das ist etwas, was man natürlich mit dem Anbieter des Tools besprechen muss, damit der Business Case stimmt.
In unserem Fall ist es ganz einfach. Wir reduzieren zum Beispiel das Risiko in einem Vertrag, der einen gewissen Wert hat, und wir ermöglichen es auch, einen Vertrag zu überprüfen, und man kann leicht berechnen, wie viel er wert ist.
Nils: Ich würde zustimmen. Es kommt darauf an. Aber zum Beispiel verlieren auch einige große Anwaltskanzleien Aufträge, weil sie einfach zu teuer sind, weil sie keine KI einsetzen, zum Beispiel bei der Datenanalyse in großen Datenräumen, die Informationsextraktion ist einfach. Wenn man das manuell machen will, hat man natürlich nur die abrechenbare Stunde und dann ist es einfach zu teuer, also muss man Tools verwenden.
Und natürlich kostet das Tool selbst, aber das Tool selbst und einige Stunden zur Überprüfung sind immer noch billiger als die manuelle Bearbeitung durch Anwälte. Und ich denke, das ist es, was mit mehr Effizienz und geringeren Kosten gemeint ist, zumindest für Anwaltskanzleien. Aber natürlich wird das zunehmen und wir werden mehr sehen.