Interviews
Alexander Hudek, Autor von AI für Anwälte – Interview-Serie

Alex Hudek ist der Co-Founder und CTO von Kira Systems. Er hält Ph.D.- und M.Math.-Abschlüsse in Informatik von der University of Waterloo und einen B.Sc. von der University of Toronto in Physik und Informatik.
Seine vergangene Forschung auf dem Gebiet der Bioinformatik konzentrierte sich auf das Finden von Ähnlichkeiten zwischen DNA-Sequenzen. Er hat auch in den Bereichen Beweissysteme und Datenbankabfragekompilierung gearbeitet.
Heute veröffentlichte er ein neues Buch mit dem Titel AI für Anwälte, ein Buch, das fünf große Themen rund um die Ethik von Anwälten erforscht, die AI verwenden – und nicht verwenden.
Was war die Inspiration hinter dem Schreiben von AI für Anwälte?
Mein Co-Founder, Noah Waisberg, und ich führen ein legales AI-Software-Unternehmen (Kira Systems) und haben fast ein Jahrzehnt lang an legalem AI gearbeitet. Wir sind unter den am längsten aktiven Menschen in der Branche. Während dieser Zeit haben wir erkannt, dass es eine breite Palette von Akzeptanz und Widerstand gibt und gemischte Gefühle, wenn es um die Rolle von AI im Recht geht. Wir fühlten, dass es eine Gelegenheit gab, eine Perspektive zu bieten, wo wir heute stehen, und einige der Mythen und Ängste um AI zu zerstreuen.
Die Realität ist, dass AI hier ist, um zu bleiben, und wir wollten ein Buch schreiben, um Anwälten zu helfen, das zu erkennen und sie an Bord zu bringen, wenn sie es noch nicht sind.
Was sind einige der Themen, die in dem Buch diskutiert werden?
AI für Anwälte liefert Informationen, die entscheidend sind, um die Zukunft des Rechts zu verstehen, in einem zugänglichen und lesbaren Format, das darauf abzielt, die Verwirrung um AI zu beseitigen und die praktische Nützlichkeit zu zeigen, die durch die Akzeptanz von AI entsteht.
Neue und ambitionierte Anwälte werden dieses Buch unverzichtbar finden, da es aufregende Karrieremöglichkeiten und -trajektorien erläutert, die vor nur wenigen Jahren noch nicht möglich waren. Es bietet auch einen Rahmen für die Einführung von AI in praktischen Details, während es zeigt, wie AI heute verwendet wird, um wesentlich bessere Ergebnisse für Anwaltskanzleien auf der ganzen Welt zu erzielen.
Das Buch erklärt weiter, wie AI die rechtliche Welt in den kommenden Jahren in Bereichen formen wird, die noch nicht von digitaler Technologie umgestaltet wurden, die Ethik von Anwälten, die AI verwenden – und nicht verwenden, und mehr.
Warum sollten Anwälte beginnen, AI zu verwenden?
Die Einführung von AI ist eine gute Geschäftsentscheidung. Für Anwaltskanzleien und andere Rechtsdienstleister bietet es Möglichkeiten, bessere Arbeit zu leisten, die Realisierungsraten zu erhöhen, neue Geschäfte zu gewinnen, bestehende Geschäfte zu behalten und Aufträge mit festen Gebühren profitabler zu erledigen. Für Unternehmen ermöglicht es ihnen, Arbeit schneller und mit weniger Aufwand zu erledigen und – wichtiger noch – ihre Unternehmen besser zu führen, indem sie anstelle von Vermutungen die Details ihrer Geschäftsbeziehungen (wie in ihren Verträgen dokumentiert) kennen.
AI ermöglicht es Anwendern – durch das Lehren von AI-Systemen neue Fähigkeiten – eine Wettbewerbsdifferenzierung zu schaffen, Wert in der Organisation zu schaffen, anstatt in den einzelnen Anwälten, und potenziell Geld durch die Erfassung und Verteilung ihrer Expertise zu verdienen.
Können Sie einige Beispiele für die Verwendung von AI zur Erzielung von aussagekräftigen Ergebnissen für Anwaltskanzleien diskutieren?
Machine Learning ist effektiv, wo große Mengen an Daten Teil eines Rechtsprozesses sind und wo die Skalierung dieser Prozesse mit menschlicher Arbeitskraft und Intelligenz eine Herausforderung darstellt.
Die ersten Anwendungen im Rechtsbereich kamen in der Litigation auf, als Anwälte mit dem Problem konfrontiert wurden, dass immer mehr Daten in elektronischen Formaten generiert und gespeichert wurden. Immer mehr Anwälte fanden, dass die Parteien in einem Rechtsstreit große Mengen an Informationen (und potenziell relevanten Beweisen) in E-Mails, Dokumentenmanagementsystemen und anderen digitalen Medien speicherten. Die Verfügbarkeit von Daten überstieg die Fähigkeit von Menschen, alle relevanten Informationen zu überprüfen und zu identifizieren, und dies führte zur Anwendung von Machine Learning in der Entdeckungsphase der Litigation. Maschinen sind sehr gut darin, schnell und genau Daten zu identifizieren, die möglicherweise für eine Entdeckungsanfrage relevant sind.
Vertragsanalyse, in der Kira tätig ist, ist ein weiteres Beispiel für ein Feld, in dem es große Mengen an Daten gibt (M&A-Deals können Tausende von Verträgen umfassen). Traditionelle Prozesse (wie manuelle Vertragsprüfungen) können einfach nicht mit dem Datenvolumen oder der Notwendigkeit einer genauen Identifizierung und Analyse von Vertragsklauseln Schritt halten.
Rechtsforschung ist ein weiterer Bereich, in dem Machine Learning den Prozess der Recherche von Rechtspräzedenzfällen und der Extraktion von Bedeutung und Erkenntnissen aus Satzungen von Rechtsdokumenten, die zuvor mit manuellen Methoden schwerer zu finden waren, verbessert hat.
Was sind einige der ethischen Verpflichtungen von Anwälten, die im AI-Bereich praktizieren?
Da die Technologie ein immer größeres Teil unseres Lebens wird, erhalten ihre ethischen Auswirkungen mehr Aufmerksamkeit. Dies reicht von der Positionierung von Sicherheitskameras bis hin zur Anonymität im Internet und den Trainingsdaten, die verwendet werden, um Machine-Learning-Algorithmen zu unterrichten. Es ist nicht überraschend, dass es auch ein Problem im Bereich des Rechts ist.
Die Technologie mag neu sein, aber die ethischen Pflichten, denen Anwälte, die AI verwenden, gegenüberstehen, sind dieselben wie vor der weit verbreiteten AI-Adoption. Das Buch behandelt die Weise, wie AI die Pflichten der Anwälte beeinflusst, wie die Pflicht zur Kompetenz (einschließlich des Wissens über die Vorteile und Risiken im Zusammenhang mit der relevanten Technologie); die Pflicht zur Kommunikation; die Pflicht zur Aufsicht und die Einschränkungen der unbefugten Rechtsausübung; die Pflicht zur Treue und mehr.
Könnten Sie diskutieren, wie groß das Problem von AI-Bias ist?
In den letzten Jahren haben wir reale Auswirkungen von voreingenommenen AI-Systemen gesehen. Zum Beispiel wird Gesichtserkennung von Strafverfolgungsbehörden immer mehr verwendet, um Menschen in einem Ausmaß zu identifizieren, das zuvor unvorstellbar war. Wenn man berücksichtigt, dass die aktuellen Gesichtserkennungssysteme oft eine geringere Genauigkeit für viele Minderheiten haben, werden die potenziellen Probleme sofort deutlich. Dies hat viele Unternehmen dazu veranlasst, von einigen dieser Anwendungen Abstand zu nehmen. Ebenso hat die Verwendung von AI zur Treffen von Urteilen oder Entscheidungen, die Einzelpersonen betreffen, wie die Vorhersage des Risikos von Rückfälligkeit im Strafsystem oder die Bestimmung von Kreditscores, deutlich gezeigt, wie groß der Einfluss von Bias in AI-Systemen sein kann.
Das bedeutet jedoch nicht, dass es auch Anwendungen gibt, die nicht unter demselben Bias leiden. Zum Beispiel im Bereich der Due-Diligence-Überprüfung bei M&A, einem Bereich, in dem Kira häufig verwendet wird, würden Sie nicht den gleichen Bias sehen, der in den vorherigen Beispielen beschrieben wird. AI-Modelle können immer noch in einigen Aspekten voreingenommen sein, wie z.B. über- oder unterinclusiv, aber die Auswirkungen davon sind nicht so kritisch.
Die Antwort ist also sowohl, dass Bias in einigen Anwendungen ein großes Problem darstellt, als auch, dass es in anderen kein großes Problem darstellt. Es hängt davon ab, wie man es verwendet.
Wie können Anwälte am besten mit AI-Bias umgehen?
Der verantwortungsvolle Einsatz von AI erfordert, dass diejenigen, die es anwenden, die Probleme des Bias in ihrer Anwendung berücksichtigen. Anwälte können am besten damit umgehen, indem sie verstehen, wie AI funktioniert und wie man Situationen erkennt, in denen die Anwendung von AI unbeabsichtigte negative Konsequenzen haben kann. Das ist ziemlich allgemeine Beratung, weil es viele Arten von AI gibt und es in vielen verschiedenen Kontexten verwendet wird.
Das Wichtigste, auf das man achten muss, sind Situationen, in denen falsche oder voreingenommene Entscheidungen, die durch AI unterstützt werden, zu negativen Ergebnissen für Menschen führen oder die Privatsphäre oder persönliche Integrität von Menschen verletzen können.
Wer sollte verantwortlich und/oder haftbar sein, wenn eine AI einen Fehler macht?
Dies ist eine Funktion des Vertrags-, Delikts- und Produkthaftungsrechts. Typischerweise limitieren AI-System-Benutzungsvereinbarungen die Garantien und Haftung des Anbieters. Es gibt gute Gründe dafür. Erstens wissen die meisten verantwortungsvollen Anbieter, dass ihre Systeme Fehler machen, und würden nicht anders versprechen. Zweitens ergänzen AI-Systeme oft Anwälte und treffen nicht wirklich die endgültigen Entscheidungen, die zu Haftung führen würden. Drittens müssten Anbieter viel mehr verlangen, um das Risiko zu übernehmen (obwohl sie sich selbst durch den Kauf eigener “Fehler- und Auslassungs”-Versicherungspolicen schützen könnten).
Es ist wichtig, dass Anwälte strikt im besten Interesse ihrer Klienten handeln und erkennen, dass AI und andere Technologiewerkzeuge nur Werkzeuge sind. Sie sind unschätzbare Helfer und werden bleiben, aber sie machen noch nicht die Regeln oder trainieren sich vollständig selbst – das ist immer noch die Verantwortung von Menschen.
Gibt es noch etwas, das Sie über AI für Anwälte teilen möchten?
AI ist der neueste Schritt bei der Weiterentwicklung der Rechtspraxis. Es wird stark im Recht eingesetzt und bietet echte Vorteile für Anwälte, die es annehmen, und Gefahren für die, die es nicht tun. Ich bin froh, Teil dieses Wandels zu sein und hoffe, dass dieses Buch als Leitfaden dienen kann, der die Branche noch weiter voranbringt. Trotz der häufigen Ängste und Unsicherheiten um AI glauben Noah und ich fest, dass es ein Werkzeug ist, das auf positive Weise für die Welt in den kommenden Jahren eingesetzt werden kann.
Sie können mehr über AI für Anwälte erfahren, indem Sie unsere Website besuchen.
Vielen Dank für das großartige Interview, ich freue mich darauf, das Buch zu lesen. Leser, die mehr über Alex oder Kira Systems erfahren möchten, sollten unser erstes Interview mit Alex Hudek lesen.












