Д.Флауд (профессор права и общества юридического факультета Университета Гриффит, как переведено): Начну с того, что поблагодарю вас за то, что меня пригласили участвовать в этом прекрасном мероприятии.
Я бы хотел прежде всего прокомментировать вопрос об обучаемом и обучающем. В Австралии я работаю с одной из крупных юридических компаний, мы работаем с системой, которая анализирует документы. У меня есть группа студентов, которая занимается обучением системы. Система затем сможет самостоятельно 75% различных документов составлять, а 25% придётся, соответственно, добавлять. Это будет уже свой собственный контент.
И я бы хотел ещё представить вам новую концепцию. Добавить к тому, что мы уже здесь упоминали. Может быть, вы помните, что такое Xero Spark? Это то, что существовало в Силиконовой долине несколько лет назад. Предполагалось, что они какую-то специальную кнопочку изобрели, которая делает копии. Конечно, они этого не сделали. Но самое интересное, что они привлекли несколько антропологов, которые исследовали, как люди используют компьютеры, как они пользуются интернетом, машинами и так далее. Мне кажется, именно это нужно нам сделать.
Я социолог, не только юрист. Я исследовал, каким образом юристы работают, как они организуются, как они занимаются бизнесом. И, надо сказать, нельзя заранее предположить, что все будут работать каким-то определённым образом. Понятно, есть нормы культуры, есть какие-то лингвистические особенности, и это видно. Крупные международные компании, бизнесы, которые базируются в Нью-Йорке, управляются очень разными людьми. Мы видели очень много русских, которые часто пользуются коммерческим арбитражем в Лондоне, и очень успешно это делают.
Я думаю, надо начинать с того, что проводить наблюдения и исследования, как эти вещи работают. Это подводит меня к следующему – к проблеме этики, к тому, как мы относимся к роботам и машинам, алгоритмам, как они относятся к нам. Мы обычно думаем о неких алгоритмах как об устройствах, которые действуют, обрабатывая большое количество данных. IBM говорит нам, что 90% всех данных в мире было создано в последние два года. Это удивительная цифра, в это сложно поверить. Наверное, последним человеком, который знал всё в мире, был Леонардо да Винчи. Я не хочу сказать, что нам нужен новый Леонардо да Винчи, вряд ли у нас это получится. Но что мы сделали? Мы фактически создали нового Леонардо да Винчи, используя такие алгоритмы, как Watson, и другие.
Что нам надо иметь в виду? Как мы применяем эти устройства, как мы их регулируем и ведём себя по отношению к ним. Возьмём классическую ситуацию. Её очень часто обсуждают. Предположим, есть машина без водителя. На одну сторону переходит женщина с ребёнком, на другую – пять пожилых людей. В какую сторону должна свернуть машина, чтобы избежать столкновения? Надеюсь, что такой выбор ей не придётся делать, но выбор перед нами всё равно бывает. И тот выбор, который мы делаем, переходит в алгоритмы, к роботам и становится очень важным.
Что мне говорят специалисты по технологиям? Сегодня алгоритмы с нуля уже никто не создаёт. Они слишком сложные, слишком большие, это слишком дорого. Слишком много ресурсов на это требуется. Поэтому сегодня используется то, что имеется. К этому добавляются какие-то элементы, они изменяются различным образом. И это приводит к большому количеству разных проблем, в том числе с точки зрения безопасности в киберпространстве, правовых последствий и так далее. В результате мы точно не знаем, что заводится в эти алгоритмы. Я приведу пример. В Соединённых Штатах суды, когда выносят приговор преступникам, используют определённые алгоритмы определения своего решения. Они могут быть объективными, рациональными, самыми лучшими. Мы предполагаем, что человек ни в коем случае не отдастся эмоциям в данной ситуации. Но мы начали проводить исследования и выяснили, что эти алгоритмы, конечно, уже имеют определённые преднастройки, встроенные с самого начала, и некие предубеждения. Это то, что делает человека человеком. Получается, что роботы делают то, что всегда делали люди. Мы передаём им наши идеи, наши этические принципы. И мне кажется, что нам нужно сделать шаг назад и задуматься об этой проблеме.
Есть ещё один аспект – как мы сами относимся к машинам. Мы часто говорим о правах человека. Мы говорим о правах животных (это уже приемлемая концепция). Теперь уже дошли до того, что права есть (или, возможно, должны быть) у растений. Возникает логичный вопрос: должны ли быть права у машин?
Прежде чем вы отмахнётесь от этой идеи как совершенно сумасшедшей, позвольте рассказать вам одну историю. Военные сделали машину, которая должна искать пехотные мины. Это что-то вроде такой машины, которая идёт по минному полю и пытается найти пехотные мины. У машины четыре опоры. После того как все четыре опоры были взорваны, военные сказали: машина тоже имеет чувства, четыре ноги уже оторваны, давайте остановимся. Но машина-то не чувствует. То есть получилось, что люди перенесли идею о собственном страдании на машину!
Давайте сделаем шаг дальше. Если машины или роботы станут воспроизводиться, самообучаться, всё дальше отходить от программиста, от того, кто их создал, от кого бы то ни было, то в какой момент машина станет сама собой. Кто будет отвечать за её действия? Будет ли отвечать создатель? Или машина сама будет нести ответственность за собственные действия? И потом появляется новый вопрос: кто имеет право (и на каких условиях) поменять машину или выключить её? На самом деле это вопрос, отключаем ли мы систему поддержки дыхания…
Всё это фантазия? Всё это фантастика? Но многое меняется сегодня. Именно на эти вопросы нам нужно будет найти ответ. Сейчас на них ответы не даются. Но уверяю вас, очень скоро они станут для нас очень важными.
Другие выступления на форуме смотрите здесь.
http://government.ru/news/27692/