||
 
 
Beitrags Sprache: Deutsch
Unter-Überschrift: Wie Legal Tech auch das Studium effizienter macht
Lesezeit 10 Min.
Beitrags Kategorie: Legal Tech
Beitrags Art: Wissenschaftlicher Artikel
Farbe: Gruen
Philipp Kürth
Student, Humboldt Universität Berlin

Vergegenwärtigt man sich als Jurastudent die Fortschritte, die Spracherkennungs- und -analysesoftware in der letzten Zeit verzeichnen konnten, so birgt dies durchaus Potenzial, zum Grübeln anzuregen hinsichtlich der eigenen Position im zukünftigen Wertschöpfungssystem der Rechtsberatung und des juristischen Arbeitsmarktes.


 

 

 

Müssen wir um unsere Bedeutung bangen?

Natural Language Processing (NLP) ist der Schlüsselbegriff, der hinter dem Meisterdolmetscher Deepl, dem Grammatik-Korrektor Grammarly oder dem – Juristen wahrscheinlich am meisten Ehrfurcht gebietenden – Stardiskutant Project Debater von IBM steckt. NLP bezeichnet allgemein eine Technologie zur maschinellen Verarbeitung natürlicher Sprache.[1] Dies vollzieht sich bei einem interaktiven Prozess zwischen Mensch und Computer in den Schritten des Hörverständnisses, der datenbasierten Textanalyse, der Textproduktion und Sprachausgabe.

Nun scheint auf Grundlage dieser Technologie mit IBMs Project Debater ein weiterer Schritt in der Ablösung bisher menschlich genuiner Fähigkeiten durch Maschinen getan. Die argumentative Debatte mit einem Computer ist ein Novum. Und ein besorgniserregendes für Syndizi obendrein, die als eine ihrer Kernkompetenzen den argumentativen Disput in Anspruch nehmen.

Gegenpol der Bedrohung sind die Effizienzgewinne, die die technischen Entwicklungen im Allgemeinen im Anwaltsgeschäft bringen sollen. Das Versprechen, das kompetente Systeme dem Anwaltsmarkt heute machen, lässt sich im Grundsatz auf die Kostenminimierung herunterbrechen. Doch was haben Studierende davon? Das Screening von tausenden von Dokumenten und Akten ist hier in der Regel wenig nutzstiftend. Noch verlangt das Jurastudium, dass Studierende Sachverhalte selbst nach Problempunkten durchkämmen und ein Repertoire an auswendig gelernter Dogmatik auf Streitfragen anwenden. Also ist die Technologie im Jurastudium doch nicht von Wert?


Was maschinelles Lernen in der Rechtswissenschaft ausrichten kann

Laut IBM umfasst der Prozess des Verstehens und Treffens einer Entscheidung, wie er von der kognitiven Technologie IBM Watson durchlaufen wird, vier grundlegende Schritte[2]:

  1. Das Beobachten von Zuständen und Erfassen von Belegen;
  2. Den Abgleich der erfassten Informationen mit bereits gespeicherten Daten zwecks Interpretation;
  3. Die auf Grundlage der Interpretation erstellte Bewertung der Beobachtung;
  4. Eine aus der Bewertung abgeleitete Entscheidung.

IBM könne mit diesem Prozess unstrukturierte Daten verstehen, wie sie in natürlicher, implizierter Sprache enthalten sind. Denn Watson nimmt nicht nur einen Stichwortabgleich vor; vielmehr umfasst die Datenanalyse des Systems die Interpretation von Grammatikregeln und der Struktur eines Satzes, um aus der Semantik eine Bedeutung abzuleiten. Im Ergebnis bildet die KI Zusammenhänge, die eine inhaltliche Analyse ergeben und die Verwertung der aus dem Text gewonnen Informationen im Kontext der im System gespeicherten Daten ermöglichen. IBM Project Debater – der Nachfolger Watsons – nutzt über die Verarbeitung natürlicher Sprache hinaus die Identifikation von Argumenten, um darauf passende Gegenargumente zu formulieren. Die KI erkennt zudem „menschliche Dilemmata“ in dem für eine Debatte vorgegebenen Antrag, modelliert diese und bildet davon ausgehende Grundsatzargumente.[3]

Das klingt freilich nach einer präzisen Spracherfassung und einer akkuraten, ergebnisorientierten Verarbeitung des Inhalts. Schon die Schritte, die Watson in seinem Entscheidungsprozess durchläuft (Erfassen/Beobachten, Abgleich, Bewertung, Entscheidung) ähneln verdächtig stark dem, was Jurastudierende tun, wenn sie einen juristischen Fall lösen. Bedeutet das die voranschreitende Automatisierung der juristischen Fähigkeiten, wie sie im Studium vermittelt und auf dem Rechtsmarkt gefragt werden – bis Studierende schließlich in wenigen Jahren mit dem ihnen beigebrachten Skillset gegen eine KI nicht mehr ankommen? Ist dieses Szenario schon Realität? Oder gibt es doch Grenzen?


Bedeutungsebenen juristischer Sprache

Wie bereits dargestellt, nutzen intelligente Sprachverarbeitungsprogramme die im Satzaufbau verwendeten Zeichen und Symbole, die Form der Verbindung von Wörtern und Wortgruppen, also die Satzstruktur (Syntax) zur Erfassung inhaltlicher Zusammenhänge. Die Syntax von Worten und Sätzen sind strukturierte Daten, die auf klaren objektiven Regeln basieren und daher „maschinenlesbar“ sind.[4]

Zum Beispiel hat das Prädikat „tun“ zwei Bezugspunkte: (1.) Das, was getan wird und (2.) jemanden oder etwas, der/das es tut. Aus der Verwendung des Begriffs in einem Satz lassen sich daher das Subjekt und das Objekt des Satzes bestimmen. Dieser Prozess kann durch eine Software anhand von im System gespeicherten Vergleichsdaten durchgeführt werden, die das Muster für die Identifizierung der einzelnen Satzglieder liefern.

Der Inhalt eines Textes bestimmt sich natürlich nicht ausschließlich über die Syntax, daneben muss auch die Bedeutung (Semantik) bewertet werden. Diese ist bei weitem vielschichtiger und komplexer zu erfassen, als die bloße Struktur eines Wortes oder Satzes. Denn zur Bestimmung der Semantik bedarf es der Interpretation. Ein Wort erlangt seine Bedeutung notwendigerweise erst durch seinen Kontext. Maschinelle Systeme können an dieser Stelle mit ihrer Stärke der Rechenleistung ansetzen: Sie erlaubt es in kurzer Zeit Vergleiche mit gespeicherten ähnlichen Daten zu ziehen, denen ihre Bedeutung in ihrem Kontext bereits zugeordnet ist. Doch bereits hier stößt maschinelles Lernen an Grenzen: nämlich immer dann, wenn die implizite Bedeutung eines verwendeten Wortes von seiner objektiven Funktion im Satz abweicht. Computer sind insoweit nicht in der Lage, Wortneuschöpfungen oder den veranschaulichenden Gebrauch von kontextfremden Begriffen zu verstehen (Bsp. Metaphern), solange die Maschine auf keine Vergleichsdaten zurückgreifen kann, etwa weil das Wort in einem losgelösten Bedeutungszusammenhang so noch nicht verwendet wurde. Auch der Gebrauch von Konjunktionen zum Ausdruck von Rangfolgen innerhalb logischer oder grammatischer Beziehungen zwischen einzelnen Wörtern oder Satzteilen, unterliegt keinen streng formalen Regeln. Der Gebrauch menschlicher Sprache ist auf der Bedeutungsebene nicht formalisiert genug, als dass sich die Bedeutung immer über eindeutige, statistisch repräsentierbare Korrelationen auswerten ließe. Bestimmte rechtliche Kriterien lassen sich nicht in ein maschinenlesbares binäres oder graduelles Format bringen, weil ihre Bewertung stets vom Kontext des Sachverhalts abhängig ist, auf den sie angewandt werden sollen. Je nach Sachverhalt sind gegebenenfalls andere Maßstäbe an das öffentliche Interesse, die Unverzüglichkeit, die Zumutbarkeit einer Handlung oder einen wichtigen Grund zu stellen.


Etikettierung von Trainingsdaten

Selbst wenn sich zu jedem mit juristischer Wertung auszufüllenden Begriff exakte Kriterien zuordnen ließen, die einer Software ermöglichen würden, die jeweils richtige Bewertung eines Sachverhaltes durch die im Kontext passende Anwendung der Attribute abzugeben, bestünde ein Problem in der Bereitstellung von Trainingsdaten: Um eine Korrelation zwischen einer Sachlage und den möglichen anwendbaren Bewertungskriterien inklusive der zu berücksichtigenden Umstände herzustellen, muss ein Maschinelles Lern-System diesen Prozess „trainieren“. Dafür sind Trainingsdatensätze nötig, in denen die möglichen Verbindungen gezogen und maschinenlesbar dargestellt sind. Dies setzt eine beträchtlich umfangreiche juristische Vorarbeit in Form der Erstellung brauchbarer Trainingsdaten voraus, bei der die möglichen Zuordnungen mittels Etikettierung vorgenommen werden. Die Herausforderung besteht an dieser Stelle sowohl in der Fülle juristisch ausfüllbarer Rechtsbegriffe als auch der Vielgestaltigkeit der erdenkbaren Sachverhalte – und obendrein in der unterschiedlichen Handhabung von Rechtsproblemen in unterschiedlichen Jurisdiktionen, sowie der ständig möglichen Revision der gesetzlichen Bestimmungen.[5]


Deep Blue, AlphaGo und Project Debater vs. law

Bereits vor über 20 Jahren hat IBMs Deep Blue mit seinem Schachspiel die menschliche kognitive Kompetenz übertroffen. 2017 folgte AlphaGo in einem weitaus komplexeren Spiel mit einem größeren Portfolio an Zug-Möglichkeiten. Aber sowohl Schach als auch Go haben gemein: Ihre Regeln sind eng limitiert und in strukturierten Daten darstellbar. Wie bereits erläutert, ist menschliche Sprache in ihrer Anwendung weitaus komplexeren Regeln unterworfen.

Im Rahmen stichhaltiger Argumentation kann Project Debater von seinem Expertenwissen in jedem Fachgebiet profitieren: Rechenleistung erlaubt es Unmengen gespeicherter oder im Netz zugänglicher Informationen zu durchkämmen und kontextuell passende Informationen zu extrahieren. So lassen sich die mit dem vorgegebenen Thema verbundenen Dilemmata ermitteln. Sie sind die Ansatzpunkte für eine Für- / Wider-Argumentation, weil sie einen Ausgleich zweier widerstreitender Interessen erfordern. Die Analyse von bisher geführten Disputen zu einem Thema eröffnet alle erdenklichen Entgegnungsmöglichkeiten auf eine vorgebrachte Argumentation. Project Debater extrahiert diese und ordnet die gewonnen Thesen und Beweise nach Themen, um den eigenen Standpunkt zu fundieren.[6]

Dennoch folgt eine Debatte ebenso wie Schach oder Go einem nur geringen Umfang zu befolgender Regeln: Jede Partei hat eine festgelegte Zeitspanne, die eigene Position vorzubringen und zu untermauern; anschließend einen bestimmten Zeitumfang, um auf die Argumentation des Gegenüber einzugehen; und schließlich wieder einen abgesteckten Zeitrahmen, um das Gesagte zusammenzufassen. In der Gestaltung der eigenen Redebeiträge sind die Redner grundsätzlich frei – abgesehen von fakultativen Devisen des argumentativen Redeaufbaus, um schließlich zu überzeugen.

Bei der juristischen Bewertung stellt sich hingegen das Problem, dass Juristen in ihrer Argumentation nicht gänzlich frei sind. Jedes vorgebrachte Argument ist an das gesetzliche Regelwerk gebunden, das kontextbezogen angewandt werden muss – unter Berücksichtigung aller im konkreten Einzelfall geltenden Ausnahmen oder Restriktionen.


Warum wir uns leistungsfähige juristische Entscheidungssysteme wünschen (können)

Außer Frage steht, dass das Potenzial von Legal Tech-Anwendungen nicht zu unterschätzen ist. Zentral äußert sich diese Tatsache in der Kostensenkung, der Qualitätssteigerung und der Optimierung von Arbeitsabläufen juristischer Arbeit. In diesen Sektoren versprechen technische Lösungen, einen positiven Effekt auszuüben.

Einen wichtigen Beitrag kann Legal Tech daneben auch jenseits profitorientierter Kanzlei- und Unternehmensräume leisten. Während des Studiums spielt Legal Tech nicht nur eine Rolle als Teil des Kompetenzprofils, das der Arbeitsmarkt von zukünftigen Juristen erwartet. Legal Tech ist auch ein hilfreiches Tool, um das materielle Recht zu lernen.

In der Humboldt Consumer Law Clinic (HCLC) – der Law Clinic für Verbraucherrecht an der Humboldt Universität zu Berlin – haben Studierende seit dem Wintersemester 2018/19 die Möglichkeit, in einem Teilprojekt „Legal Tech“ mitzuwirken. Das Ziel des neu ins Leben gerufenen Tätigkeitsbereichs der Law Clinic ist, zum Ende des Teilnahmezyklus online verfügbare Frageformulare entwickelt zu haben, welche Verbrauchern auf der HCLC-Website zugänglich sein und zu alltäglichen rechtlichen Fragestellungen einen ersten automatisierten Rechtsrat bieten sollen. Um dieses Ziel zu erreichen, sehen sich die Studierenden der HCLC neben den Problemstellungen der RDG-Konformität und der Akquirierung informatischen Know-hows maßgeblich vor der Herausforderung, juristische Entscheidungsbäume zu erstellen, welche die Grundlage für die Abfrage-Logik der Beratungssoftware darstellen, um alle relevanten Sachverhaltsinformationen entsprechend der in Frage stehenden Tatbestandsmerkmale zu erfassen.

Die Erstellung besagter Entscheidungsstrukturen fordert bei der rechtswissenschaftlichen Arbeit zwei Qualitäten: Problembewusstsein und denklogische Präzision – zwei Kernkompetenzen von Juristen. Problembewusstsein deshalb, weil die Erstellung einer Softwarelösung für rechtliche Beratungsleistungen von einem allgemein bedeutsamen Rechtsproblem ausgeht, was es zu erkennen gilt. Die Identifikation eines gleichzeitig praxisrelevanten und in seinen Prüfungsschritten eindeutig subsumierbaren Anspruchs schult eine unternehmerische Denkweise. Juristische Präzision wird aus dem Grund gefordert, dass die Voraussetzungen eines Anspruchs oder einer begehrten Rechtsfolge mit den abzufragenden Sachverhaltsinformationen logisch präzise verknüpft werden müssen. Die Erstellung der einzelnen Verbindungen zwischen den Fragen an den Verbraucher auf dem Weg zur Sachverhaltsermittlung trainiert effizienzorientierte Designfähigkeiten und logisches Denken. Bei der Abfrage der Sachverhaltsinformationen sollte der Umfang der gestellten Fragen auf der einen Seite möglichst geringgehalten werden, um den Anwender nicht in einem zeitaufwendigen Klickprozess wieder zu verlieren. Auf der anderen Seite müssen alle relevanten Fakten erfasst werden, um die gefragte juristische Beurteilung abgeben oder das gewünschte Textdokument generieren zu können.

Durch die Überführung rechtlicher Entscheidungsstrukturen zu einzelnen Tatbeständen in ein digitales Format ist es nötig, thematisch tief in jede einzelne Tatbestandsalternative und ihre jeweilige Rückkopplung zu jeder erdenklichen Sachverhaltskonstellation einzutauchen. Ergebnis des Prozesses ist neben einem optimalerweise praktisch anwendbaren Rechtsdienstleistungstool auch ein tiefgehendes juristisches Spezialwissen in dem bearbeiteten Kontext.

Eine weitere Auswirkung auf den Lernprozess besteht darin, dass bei der Erstellung automatisierter Rechtsberatung schnell auch ihre Grenzen deutlich werden. Unbestimmte Rechtsbegriffe, von der Rechtsprechung geprägte Ansprüche und juristische Wertungsfragen lassen sich nicht oder zumindest schwer in Entscheidungsbäume integrieren. Es fehlt an klar abgrenzbaren Entscheidungsmöglichkeiten, die in Abhängigkeit von geringen Sachverhaltsinformationen zu einem eindeutigen rechtlichen Ergebnis führen. Stößt man als Studierender auf eine solche Hürde, wird deutlich, wo in der Struktur eines Tatbestands die juristische Argumentation und Beurteilungsfähigkeit gefragt ist. 

 


[1] Luber, Stefan / Litzel, Nico: „Was ist Natural Language Processing”, URL: https://www.bigdata-insider.de/was-ist-natural-language-processing-a-590102/. 01.09.2016, Stand: 31.05.2019.
[2] https://www.youtube.com/watch?v=AtdJ1DGJjXA
[3] https://www.research.ibm.com/artificial-intelligence/project-debater/how-it-works/
[4] Grupp, Micha: „25 facts about AI & Law you always wanted to know (but were afraid to ask).”, URL: https://medium.com/@Grupp/25-facts-about-ai-law-you-always-wanted-to-know-but-were-afraid-to-ask-a43fd9568d6d@Grupp/25-facts-about-ai-law-you-always-wanted-to-know-but-were-afraid-to-ask-a43fd9568d6d. 07.04.2019, Stand: 31.05.2019.

[5] Grupp, Micha: „25 facts about AI & Law you always wanted to know (but were afraid to ask).”, URL: https://medium.com/@Grupp/25-facts-about-ai-law-you-always-wanted-to-know-but-were-afraid-to-ask-a43fd9568d6d@Grupp/25-facts-about-ai-law-you-always-wanted-to-know-but-were-afraid-to-ask-a43fd9568d6d. 07.04.2019, Stand: 31.05.2019..
[6] https://www.research.ibm.com/artificial-intelligence/project-debater/how-it-works/

 

Diese Website benutzt Cookies. Wenn Sie die Website weiter nutzen, stimmen Sie der Verwendung von Cookies zu.
Ok