Sie sehen hier: So stellt sich ChatGPT einen KI-Richter vor – beim Zitieren von Urteilen wird derzeit jedoch fleißig halluziniert.
Ob zur Effizienzsteigerung in Unternehmen, zur Entwicklung autonomer Fahrassistenzsysteme oder zu Hause in Form von Sprachassistenzsystemen wie Alexa – nahezu jeder nutzt inzwischen die Vorteile der künstlichen Intelligenz, ob bewusst oder unbewusst. Themen bezüglich des Einsatzes künstlicher Intelligenz sind in aller Munde. Auch wenn die durch die KI neu gewonnenen Möglichkeiten beeindruckend sind, so ist bei den Ergebnissen äußerste Vorsicht geboten: Denn auch die KI macht Fehler, insbesondere wenn die Arbeitsaufträge, für welche der Mensch unerlässlich ist, nicht konkret genug gestellt werden, beispielsweise aufgrund fehlenden Wissens oder aber schlichter Unachtsamkeit.
Hinzu kommt, dass die KI nur dazu in der Lage ist, bereits bestehende Informationen aus Datenbanken zusammenzutragen und ggf. neu zusammenzufügen. Was sie dagegen nicht kann, ist selbständig zu denken oder zu erkennen, ob eine Information falsch ist.
So hilfreich der Einsatz von KI häufig auch sein mag: Bezüglich der Ergebnisse ist Vorsicht geboten, ständige Kontrolle ist erforderlich. Was auf den ersten Blick wie eine Arbeitserleichterung erscheinen mag, bedeutet bei genauerer Betrachtung häufig einen erheblichen Mehraufwand.
Je komplexer der Themenbereich, desto größer ist auch die Gefahr für Fehlinformationen durch die KI. Diese Erfahrung machen auch unsere Anwälte, insbesondere, wenn Mandanten die KI nutzen, um eine „erste Einschätzung“ ihrer rechtlichen Probleme zu erlangen oder um ihren Fall im rechtlichen Kontext darzustellen.
Teilen die Mandanten sodann ihre durch die KI erzielten Ergebnisse mit unseren Anwälten, so führt dies, anders als vielleicht vermutet wird, keinesfalls zu einer Arbeitserleichterung. Vielmehr bedeutet dies für unsere Anwälte einen erheblichen Mehraufwand. Denn zunächst müssen unsere Anwälte dadurch mehr Unterlagen sichten, als ohnehin erforderlich ist; sodann müssen die Inhalte auf ihre Richtigkeit überprüft werden.
So erhielten unsere Anwälte in letzter Zeit häufig Inhalte, die Mandanten mithilfe der KI erstellt haben. Dabei wurden unter anderem Urteile zitiert, die schlicht nicht existierten, sodass aufwändige Recherchen nötig waren um herauszufinden, ob es die zitierten Inhalte überhaupt gibt und wenn ja, aus welchen Urteilen sie tatsächlich stammen.
In einem Fall zitierte ein Mandant Ergebnisse seiner Recherchen mithilfe der KI zur Begründung seines Anspruchs in Bezug auf Garantieleistungen – jedoch nicht nach deutschem, sondern amerikanischem Recht, wie sich nach der Recherche unserer Anwälte herausstellte. Amerikanisches Recht war jedoch im Fall unseres Mandanten nicht einschlägig.
Fazit unserer bisherigen Erfahrungen ist daher: Der Einsatz von KI durch unsere Mandanten erschwert in vielen Fällen die Kommunikation und verursacht einen Mehraufwand für unsere Anwälte, anstatt deren Arbeit zu erleichtern, wie es vielleicht auf den ersten Blick für unsere Mandanten erscheinen mag.