by the Arbitration Association
RU

Международный арбитраж 3.0: как искусственный интеллект изменит разрешение споров

January 19, 2020

В основу данной статьи положены тезисы вступительной речи, произнесенной профессором Шерер на Венских арбитражных днях в январе 2018 года и удостоенной награды GAR как лучшая лекция. 

Название этой статьи – отсылка к книге Макса Тегмарка, шведско-американского физика и космолога, профессора Массачусетского технологического института, которую я недавно прочитала. В своей книге «Жизнь 3.0. Быть человеком в эпоху искусственного интеллекта», изданной в 2018 году, он описывает эволюцию человечества и последствия, которые влечет за собой появление искусственного интеллекта (ИИ).

Тегмарк разделяет жизнь как явление на три этапа:

̶         жизнь 1.0 – это начало жизни, когда около 4 млрд лет назад крошечные бактерии взаимодействовали с окружающей средой;

̶         жизнь 2.0 – современная стадия развития человечества. Мы взаимодействуем и, что важно, учимся у окружающей среды. Когда рождается ребенок, он не знает, как разговаривать, есть, играть в шахматы или быть юристом в международном арбитраже, но он может научиться всему этому и многому другому;

̶         жизнь 3.0 – ближайшее будущее.

Способность к обучению – вот главное, что делает жизнь 2.0 лучше жизни 1.0. Бактерия не может обучаться на протяжении своей жизни. Она развивается в течение тысяч и миллионов лет: бактерия, лучше адаптированная к окружающей среде, с большей вероятностью выживет и передаст свою ДНК потомкам. Это и есть эволюция, это работает, но занимает слишком много времени. Жизнь 2.0 превосходит жизнь 1.0, потому что она адаптируется к окружающей среде намного быстрее – не только посредством эволюции, но и посредством обучения.

Однако у жизни 2.0 есть и свои ограничения, которые Тегмарк называет «аппаратными». Синапсы в человеческом мозгу могут хранить информацию объемом около 100 Тб – это очень много, но все же недостаточно. Даже если стараться изо всех сил, мы не научимся играть в шахматы за два часа и не сможем изучить 400-страничное исковое заявление или запрос на предоставление документов в течение нескольких минут. Возможно, это способны делать компьютеры. И здесь мы подходим к жизни 3.0.

Жизнь 3.0 не имеет таких «аппаратных ограничений», как жизнь 2.0. Она может проектировать собственное оборудование, а следовательно, учиться намного быстрее и, вероятно, намного лучше, чем люди. Вычислительная мощность человеческого мозга примерно равна мощности оптимизированного компьютера, который сегодня стоит всего пару сотен евро. Значит ли это, что мы находимся всего в нескольких шагах от признания превосходства искусственного интеллекта? Чтобы ответить на этот вопрос, нужно разобраться, что на самом деле означает ИИ.

Определение ИИ

Определений у ИИ множество – не меньше, чем посетителей на Венских арбитражных днях. Я выбрала всего два. Оксфордский словарь определяет ИИ как «историю и развитие компьютерных систем, способных выполнять задачи, обычно требующие человеческого интеллекта, такие как визуальное восприятие, распознавание речи, принятие решений и перевод с одного языка на другой»[1]. Ученый Джон Маккарти – возможно, и придумавший термин «искусственный интеллект» – описывает его как способность «заставить машину вести себя так, чтобы это было названо разумным, если бы так вел себя человек»[2]. Интересно, что оба определения используют в качестве ориентира человеческий интеллект. Они описывают ИИ в сравнении с «задачами, обычно требующими человеческого интеллекта» и «способами, которые можно было бы назвать разумными, если бы так себя вел человек».

Оксфордский словарь перечисляет ряд задач, где можно сравнить ИИ и человеческий интеллект. Среди них, например, «визуальное восприятие, распознавание речи <…> и перевод с языка на язык». За прошедшие годы мы пришли к выводу, что компьютеры обычно выполняют эти задачи лучше, чем люди. Они могут различить серию похожих изображений чихуахуа и черничных кексов за наносекунды, тогда как людям приходится прилагать для этого определенные усилия[3].


Я использую функцию распознавания голоса на смартфоне, чтобы диктовать электронные письма и сообщения, когда я в дороге. И хотя я надеюсь в дальнейшем овладеть некоторыми языками лучше, чем программы перевода, я все равно не сумею понять столько же, сколько они.

Важно отметить, что список в Оксфордском словаре содержит еще одну область сравнения – «принятие решений». Вопрос, который мы обсуждаем сегодня, по сути таков: кто лучше принимает решения – компьютеры или люди?

Различают слабый и сильный ИИ[4]. Слабые программы ИИ имитируют человеческое мышление и суждения, фактически не имея их, в то время как сильные обладают способностью мыслить или рассуждать, используя не только заранее запрограммированные варианты.

Тезис о том, что компьютерные программы могут научиться учиться, не так легко понять. Хорошей иллюстрацией этому является видео о программе глубокого обучения DeepMind, в которой рассказывается, как играть в Atari Breakout, компьютерную игру 1970–1980-х годов[5]. Цель игры – отбить шарик (красную точку) у кирпичной стены (многоцветной полосы сверху), используя курсор (красную линию снизу), чтобы сломать кирпичи как можно быстрее.


В видео показаны три этапа обучения программы DeepMind тому, как играть. Важно отметить, что никаких предварительных данных об игре, о понятии «мяч» и способах его перемещения у компьютера не было. Все, что имелось у ИИ, – это задача максимизировать счет.

Через десять минут обучения DeepMind с трудом перемещает мяч, неуклюже используя курсор. Через два часа программа уже играет как эксперт, умело отбивая мяч на высокой скорости. И наконец, через четыре часа она находит оптимальное решение, позволяющее быстро набрать наибольшее количество очков: пробить туннель через кирпичную стену, чтобы мяч мог ударить по ней сверху, а не снизу.


Это то, что Стюарт Рассел из Калифорнийского университета в Беркли называл моментами «ЧВ!» – «черт возьми!». Даже будучи ученым-компьютерщиком, Рассел был озадачен и поражен увиденным, поскольку не ожидал, что это произойдет. По крайней мере, не в ближайшем будущем.

Эффекты ИИ

После попытки определить и понять ИИ и его формы позвольте мне перейти к последствиям, которые он имеет или может иметь для международного арбитража. Я буду рассматривать проблему с разных точек зрения: как юрист, как арбитр и как законодатель.

Взгляд юриста

Разработанный McKinsey онлайн-тест «Может ли робот отнять у меня работу?» позволяет любому желающему указать свою профессию и рассчитать вероятность его замены роботом[6]. Для юриста результат таков: «23% вашей работы может выполнять робот», эта профессия «безопаснее, чем 67,9% специальностей». Задачи юристов, которые, как предполагает тест, под силу роботам, включают «изучение соответствующих юридических материалов» и «подготовку юридических документов».

Действительно, есть несколько способов, с помощью которых технологии могут помочь юристам, практикующим международный арбитраж. Некоторые из этих технологий уже стали мейнстримом[7].

Во-первых, инструменты для исследований на основе ИИ заполонили рынок. Я не хочу рекламировать конкретные марки или компании, но все эти инструменты основаны на больших данных в сочетании с мощными поисковыми системами. Можно задать поиск по запросу «определение арбитражного соглашения в соответствии с японским законодательством» или «последняя швейцарская судебная практика, касающаяся отказа от права на отмену арбитражных решений», и машина найдет соответствующую судебную практику, законодательные положения и научные статьи. Некоторые из этих программ включают инструменты глубокого обучения. Они будут постоянно улучшать свои результаты, запрашивая обратную связь после каждого исследовательского задания и учась на собственных ошибках. Некоторые разработчики утверждают, что их системы дают удовлетворительный ответ в 97% случаев. Такие инструменты могут сократить время на исследования, однако человеческий вклад все еще необходим и его нельзя недооценивать. Должен быть живой оператор, который знает, как использовать инструмент исследования, сможет задать правильный вопрос, сумеет проанализировать и интерпретировать результаты.

Во-вторых, обработка больших данных стала важным аспектом любого механизма разрешения споров, включая арбитраж. Здесь имеется в виду использование специальных программ для организации, анализа и обработки больших наборов данных, которые традиционные базы данных не в силах «переварить». Такие программы применяются, например, в процессах электронного обнаружения данных. Они используют так называемое прогнозирующее кодирование, направленное на уменьшение количества не относящихся к делу документов, которые необходимо просматривать вручную. Леди Джастис Глостер, бывшая судья Апелляционного суда Англии и Уэльса и председатель рабочей группы по раскрытию информации в Соединенном Королевстве, на своей лекции в ноябре 2017 года отметила, что «предиктивное кодирование будет играть важную роль в судебных разбирательствах в коммерческих судах» Великобритании[8]. То же самое относится и к арбитражному разбирательству с использованием электронного обнаружения данных.

В-третьих, применение ИИ вероятно также в области прогнозирования результатов. Как часто клиенты просят вас оценить шансы на успех в том или ином споре? Мне сложно назвать точный процент, но компьютерные программы могут помочь. Канцлер Высокого суда Англии сэр Джеффри Вос упоминал о технологии прогнозов в недавней речи перед юридическим бизнес-сообществом во Франкфурте: «Технология прогнозирования для предсказания исхода споров <…> была впервые внедрена в США, но теперь она активно используется и в Европе. <…> Я полагаю, что она очень полезна для крупного бизнеса, потому что может определить наиболее вероятный результат будущего судебного разбирательства».

Однако действительно ли компьютерные программы в силах предсказать результаты споров? Недавние исследования показали, что да.

Например, в 2016 году исследовательская группа собрала все дела, рассмотренные Европейским судом по правам человека по ст. 3, 6 и 8 Европейской конвенции о правах человека[9], разработала набор данных и предложила компьютерной программе проанализировать этот массив. ИИ должен был отслеживать частоту, последовательность и кластеры слов, а затем присваивать им значимость по сравнению с результатом рассмотрения дела – было в итоге установлено нарушение соответствующего положения ЕКПЧ или нет. Программа искала взаимосвязи между словами, их последовательностями и кластерами, которые могли бы предсказать исход дела. Затем исследовательская группа применила программу к другим случаям, которые ранее не вводились в систему (то есть к тем, для которых ИИ не знал результата). Итоговая точность прогнозов составила 79%.

Второе исследование было проведено в 2017 году и касалось решений Верховного суда США[10]. Как и в первом случае, программе для обучения дали дела определенных лет, а затем попросили предсказать результаты на остальные годы. Показатель успеха оказался несколько ниже: ИИ угадал в 70% случаев. Но, хотя точность прогнозов в этом исследовании меньше, чем в предыдущем, впечатляет она сильнее: здесь анализ затрагивал все отрасли права, по которым Верховный суд США принимает решения, – гораздо более широкую сферу, чем конкретные правовые вопросы ст. 3, 6 и 8 Европейской конвенции о правах человека.

Коммерческие программные средства для прогнозирования исхода дел уже применяются во многих областях, в том числе в спорах об интеллектуальной собственности, спорах по трудовому праву и т.д.[11] Но я не знаю ни одной технологии, которая бы использовалась в международном арбитраже. Одним из очевидных препятствий является конфиденциальность: получить доступ к решениям международного арбитража намного сложнее, чем к решениям Европейского суда по правам человека или Верховного суда США. Это затрудняет обучение программы эффективному прогнозированию результатов. Данное ограничение распространяется на международный коммерческий арбитраж, но в меньшей степени относится к инвестиционному арбитражу, где решения публикуются чаще.

Взгляд арбитра

Изучение возможности программ точно прогнозировать результаты дел приводит к более фундаментальному вопросу о том, могут ли лица, принимающие решения (то есть судьи или арбитры), быть эффективно заменены ИИ. Кроме препятствия в виде конфиденциальности решений (а значит, сокращенных наборов данных), о котором я уже упоминала, существуют и другие трудности. Международные арбитражные дела, как правило, сложные, изобилуют фактами и регулируются различными применимыми законами. Из-за неповторяющегося характера международного арбитражного разбирательства я по-прежнему скептически отношусь к идее замены международных арбитров искусственным интеллектом в ближайшее время[12].

Есть и иные, возможно более философские, вопросы. Предположим, ИИ сможет в итоге разрешать международные арбитражные дела. Будет ли это хорошо? Станут ли программы принимать решения лучше, чем люди? Здесь можно привести несколько аргументов в пользу превосходства ИИ над человеком.

Во-первых, программы рациональны, а люди нет. В одном интересном исследовании группа израильских ученых рассматривала случаи условно-досрочного освобождения в уголовном праве и пыталась проанализировать, что повлияло на решение судьи[13]. Из многих факторов один оказался чисто иррациональным: имело значение, принято решение до или после обеденного перерыва. До обеда судья был голоден и с большей вероятностью отказывал в ходатайстве, зато после обеда, сытый, чаще его удовлетворял. ИИ не испытывает голода и не имеет никаких чувств или эмоций, а значит, не подвержен влиянию иррациональных факторов при принятии решений.

Во-вторых, программы ИИ более беспристрастны. Растет число исследований по психологическим аспектам принятия решений и влиянию бессознательных когнитивных искажений. Одним из наиболее известных когнитивных искажений является так называемый эффект привязки, описанный Даниэлем Канеманом, лауреатом Нобелевской премии, известным своими работами по психологии принятия решений.

Канеман вместе с коллегой Амосом Тверски и студентами изучал этот эффект в серии экспериментов[14]. В первом эксперименте группу людей попросили вспомнить возраст, в котором умер Махатма Ганди. Респонденты в среднем назвали 75 лет. Во втором эксперименте другую группу людей разделили на две подгруппы. Одной подгруппе задали вопрос, был ли Ганди на момент смерти старше или моложе 144 лет. Практически все ответили, что он был моложе. Затем испытуемым задали тот же вопрос, что и в первом эксперименте, – и средний возраст Ганди в их ответах вырос (относительно 75 лет, названных первой группой). В другой подгруппе спросили, был ли Ганди на момент смерти старше или моложе 35 лет. Практически все сказали, что он был старше. Затем и этой подгруппе был задан вопрос о возрасте, в котором Ганди умер, – и, как вы уже догадались, среднее значение оказалось ниже, чем в первом эксперименте (то есть меньше 75).

В последних двух случаях наглядно продемонстрирован эффект привязки: первое названное число (144 года или 35 лет) влияет на последующую оценку. Это когнитивное искажение, которое проявляется, когда мы рассматриваем конкретное значение неизвестной величины перед оценкой такой величины.

Описанные психологические эффекты заставляют задуматься о процессе принятия решений судьями и арбитрами. Заявляя в исках о возмещении убытков значительные суммы, увеличивают ли истцы шансы на взыскание бо́льших денежных средств? Это тема для размышлений. В любом случае у ИИ нет когнитивных искажений – по крайней мере, таких, которые есть у людей[15].

Однако существует и множество аргументов против использования искусственного интеллекта для вынесения решений. Первый возможный контраргумент, который пришел мне в голову при исследовании этой темы, был следующим: программы-судьи опасны, потому что могут дать слишком большую власть программистам. Ведь именно программисты определяют начальные алгоритмы, на основе которых ИИ будет выносить решения. Словом, тот, кто прописывает алгоритм, определяет и исход дела.

Если задуматься, этот аргумент кажется не совсем точным в свете различия между слабым и сильным ИИ, который мы обсудили ранее. Сильный ИИ фактически подразумевает, что программа учится сама. Например, программа DeepMind не знала, как играть в Atari Breakout, но самостоятельно научилась это делать. Таким образом, в исследованиях о решениях Европейского суда по правам человека и Верховного суда США не программисты задали алгоритм «если X случается, то результатом решения является Y». Скорее, сама программа описала выводы, которые она будет делать из определенных находок в решениях (например, кластеров слов), и оценила значение, которое она придаст своим находкам при прогнозировании результата. Ни один программист не указал этого заранее.

Из сказанного, однако, вытекает второй, возможно даже более сильный, аргумент против искусственных арбитров. Никто не знает, почему и как ИИ приходит к своим ответам. Какие выводы делает программа, чтобы с 80%-ной точностью предсказать решение Европейского суда по правам человека? Мы не знаем наверняка. ИИ основывает прогноз на анализе предыдущих решений, появлении определенных слов или совокупности слов, но никто не может объяснить подробно, как именно это происходит.

В интересной, но не менее тревожной статье «Можно ли научить ИИ объяснять себя?», опубликованной в New York Times, программисты описывают проблемы, с которыми они сталкиваются, пытаясь обосновать некоторые результаты ИИ[16]. Среди прочего, там рассказывается об эксперименте, в котором людей и компьютерные программы просили угадать сексуальную ориентацию людей, изображенных на фотографиях. Выяснилось, что люди дали верные ответы в 60% случаев, а ИИ – в 91% случаев для мужчин и в 83% – для женщин. Ученые так и не смогли понять, как программа достигла столь впечатляющего результата.

Этот пример наглядно показывает, что ИИ, возможно, способен делать точные прогнозы, но он не сможет объяснить (по крайней мере, людям), как и почему он достиг определенного итога. Однако обоснование является одной из основополагающих характеристик процесса принятия решений и в национальных судах, и в арбитражных трибуналах. Причины позволяют проигравшей стороне понять, почему она проиграла, и тем самым сделать решение более приемлемым. Причины помогают сторонам изменить свое поведение в будущем. Наконец, обоснованное решение, в случае его опубликования, дает другим трибуналам возможность следовать тому же обоснованию или объяснять свое отклонение от предыдущего прецедента.

Тот факт, что искусственные арбитры не смогут указать причины своих решений, а значит, не выполнят фундаментальные требования правосудия, заставляет меня скептически относиться к идее о том, что ИИ в ближайшее время заменит людей, принимающих решения. Скорее, я могу представить, как такие люди могли бы использовать программы для облегчения принятия решений[17].

Взгляд законодателя

Принимая во внимание точку зрения законодателей или других политиков, вы можете спросить себя, чем ИИ будет для них полезен.

Давайте посмотрим на еще одно интересное исследование 2016 года, в котором группа ученых пыталась с помощью компьютерной программы разработать международное инвестиционное соглашение. Исследователи исходили из того, что соглашения, составленные компьютером на основе мировой практики, могли бы выровнять асимметрию полномочий между государствами с сильными переговорными возможностями/опытом и государствами с меньшими возможностями/опытом[18].

В качестве набора данных использовались 1682 англоязычных двусторонних инвестиционных соглашения. Программа была обучена определять нормы передовой практики. Результаты исследования оказались неоднозначными. С одной стороны, ИИ хорошо имитировал отдельные положения международных инвестиционных соглашений: пункты, предложенные компьютером, практически не отличались от действующих норм. С другой стороны, программа плохо справлялась с составлением документа в целом. Подготовленные ИИ проекты международных инвестиционных соглашений содержали повторяющиеся пункты, в то время как ряд существенных положений отсутствовал, а последовательность пунктов была неудовлетворительной.
Итак, все приведенные выше исследования показывают пределы возможностей ИИ. Без сомнения, тема искусственного интеллекта будет интриговать нас еще долгие годы.

Макси Шерер, профессор, советник по особым вопросам, WilmerHale, Лондон

Перевод Юрия Рыбака, WilmerHale, Лондон

Литературная обработка Татьяны Левицкой и Дмитрия Артюхова


[1] URL: https://en.oxforddictionaries.com/definition/artificial_intelligence.

[2] Каплан Д. Искусственный интеллект: что нужно знать всем (2016).

[3] Компьютерное зрение на основе машинного обучения изменит наш взгляд на мир. URL: https://www.qualcomm.com/news/onq/2018/04/24/computer-vision-powered-machine-learning-will-change-way-we-see-world.

[4] Бен Ари Д. и др. «Опасность, Уилл Робинсон?» Искусственный интеллект в юридической практике: анализ и обоснование концептуального эксперимента. URL: http://jolt.richmond.edu/index.php/volume23_issue2_greenbaum.

[5] Google DeepMind's Deep Q-learning Playing Atari Breakout. URL: https://www.youtube.com/watch?v=V1eYniJ0Rnk&vl=en.

[6] Джонсон Д. Узнайте, отберет ли робот вашу работу. URL: http://time.com/4742543/robots-jobs-machines-work.

[7] См., например, Лор С. ИИ делает юридическую работу. Но он не заменит юристов – пока. URL: https://www.nytimes.com/2017/03/19/technology/lawyers-artificial-intelligence.html.

[8] Данная лекция еще не опубликована. В тексте приведена цитата из заметок, сделанных автором.

[9] Алетрас Н. и др. Прогнозирование судебных решений Европейского суда по правам человека: перспектива обработки естественного языка (2016).

[10] Мурхед Р. Юристы обучаются прогнозированию. URL: https://lawyerwatch.wordpress.com/2017/01/19/lawyers-learning-about-prediction.

[11] Селлан-Джонс Р. Адвокаты-роботы уже здесь, и они выигрывают. URL: https://www.bbc.co.uk/news/technology-41829534.

[12] Вышеупомянутый онлайн-тест оценивает риск быть замененным роботом для «арбитров, медиаторов и примирителей» всего в 11%. Задачи, которые робот может здесь выполнять, включают «приведение участников судебного процесса к присяге, подготовку юридических документов, изучение соответствующих юридических материалов, чтобы помочь принятию решений».

[13] Бенфорадо А. Может ли наука спасти правосудие? 101 (2) Judicature 24, 26 (2017).

[14] Канеман Д. Думай медленно, решай быстро (2013).

[15] Вопрос о том, являются ли компьютерные решения беспристрастными, – другой, более сложный вопрос. См., например: Кудд C. T. Когнитивные искажения в использовании компьютерных систем поддержки принятия решений (1989). Растет обеспокоенность тем, что ИИ на самом деле изучает предубеждения человека и, возможно, даже повторяет их. См. Девлин Х. Программы ИИ демонстрируют расовые и гендерные предубеждения, URL: https://www.theguardian.com/technology/2017/apr/13/ai-programs-exhibit-racist-and-sexist-biases-research-reveals; Найт У. Забудьте про роботов-убийц: предвзятость – вот реальная опасность для ИИ, URL: https://www.technologyreview.com/s/608986/forget-killer-robotsbias-is-the-real-ai-danger.

[16] Куанг К. Можно ли научить ИИ объяснять себя? URL: https://www.nytimes.com/2017/11/21/magazine/can-ai-be-taught-to-explain-itself.html.

[17] Интересно, что некоторые законы об арбитраже прямо требуют, чтобы арбитры были людьми. Например, во Франции ст. 1450 Гражданского процессуального кодекса предусматривает третейские арбитражи: «Только физическое лицо, обладающее полной способностью осуществлять свои права, может выступать в качестве арбитра». Однако это положение применимо к третейскому, а не к международному арбитражу. См. также ст. 1023 Гражданского процессуального кодекса Нидерландов («Любое физическое лицо, обладающее дееспособностью, может быть назначено арбитром»), ст. 13 испанского закона об арбитраже («Все физические лица, полностью владеющие своими гражданскими правами, могут выступать в качестве арбитров при условии, что они не ограничены применимым к ним законодательством при осуществлении своей профессии»); подп. 1 п. «В» ст. 7 турецкого закона о международном арбитраже («В качестве арбитров могут быть выбраны только физические лица»).

[18] Альшнер В., Скугаревский Д. Составление карты вселенной международных инвестиционных соглашений. URL: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2801608