Данил Румянцев
Удивительно, но нет.
Человек далеко не идеален – часто ошибается, иногда даже совершает поступки, которые не следовало. Для этого и существуют судьи, которые способны здраво рассудить совершенные поступки, по закону, но так ли это на самом деле? Увы, но не совсем, порой бывают случаи, когда наказывают тех людей, чьей вины и вовсе нет. Судьи могут брать взятки и быть неточными в суждениях. Но что насчет роботов? Они же точно могут объективно рассудить кто прав, а кто виноват. Могут, однако их методы оказались крайне жестокими. В последнем исследовании было обнаружено, что модели, обученные с помощью обычных методов сбора данных, оценивают нарушения правил более жестко, чем люди.
Содержание
Как робот выдает суждения
Исследование проведенное на эту тему было опубликовано в журнале Science, оно предоставило возможность оценить недостатки и скорректировать курс в области ИИ. Поскольку последние тесты показали, что машины зачастую делают ужесточенный выбор наказания – авторы выразили сомнение по методам их обучения.
В попытках постоянно автоматизировать любую область – человек часто прибегает к таким способом, как машинное обучение, дабы упростить работу и сделать все более надежным.
Но исследователи обнаружили, что эти модели часто не копируют человеческие решения по поводу нарушения правил, а наоборот, лишь ужесточают меры пресечения. Ученые указали на то, как важно давать именно открытые и достоверные данные прежде чем обучать ИИ.
Под «правильными» данными подразумевают те, которые были помечены людьми, которых прямо спросили, нарушают ли они определенное правило. Обучение предполагает демонстрацию модели машинного обучения миллионов примеров таких «нормативных данных», чтобы она могла научиться выполнять задачу.
Но и тут не все просто, такие системы зачастую маркируются описательно – то есть людей просят определить фактические особенности, например, наличие вредной еды на фото. Если такие данные используются для определения нарушений, например, подходит ли еда под школьную политику, запрещающую жареную пищу, то такие модели склонны ошибаться.
Суждения робота и человека
Такое снижение точности может иметь серьезные последствия в реальном мире. Например, если система применяется для принятия решений относительно вероятности повторного совершения преступления, она может выносить более строгие суждения, чем человек. То есть увеличение сроков наказания, залогов.
Большинство научных групп предполагает, что человеческие суждения, которые содержатся в ярлыках, необъективны. Однако этот результат указывает на нечто еще более тревожное. Эти модели даже не воспроизводят уже существующие предвзятые человеческие суждения, поскольку данные, на которых они обучаются, имеют недостатки: люди различным образом размечают особенности изображений и текста, если они знают, что они будут использоваться для вынесения вердикта. Это имеет огромное значение для систем машинного обучения, которые применяются в человеческих процессах.
Получение данных для обучения ИИ
В ходе сбора информации для этого проекта исследователи заметили интересный факт: люди иногда дают разные ответы, когда их просят указать описательные или нормативные оценки на одни и те же данные.
Чтобы получить описательные метки, исследователи просили участников определить фактические характеристики, например, содержит ли текст непристойные выражения. Для сбора же нормативных меток – они предоставляли участникам правило и спрашивали, нарушает ли данный текст это правило.
Кроме того они решили копнуть чуть глубже. Ученые собрали четыре набора данных, имитирующих различные варианты. Например, один набор данных состоял из изображений собак, которые могли нарушать правила аренды квартиры. После чего участников попросили поделиться описательными и нормативными суждениями.
В каждом случае, котором присваивали описательные метки, просили указать наличие трех фактических признаков на изображении или в тексте, например, выглядит ли собака агрессивной. Их ответы затем использовались для формирования суждений. Участники, которые присваивали описательные метки, не были ознакомлены с правилами, регулирующими содержание домашних животных. С другой стороны, участникам, которым присваивались нормативные метки, предоставляли информацию о политике, запрещающей наличие агрессивных собак, и затем спрашивали, была ли она нарушена на каждом изображении и почему.
Исследователи заметили, что в описательной среде люди гораздо чаще классифицировали объекты как нарушения. Разница, рассчитанная путем абсолютного различия в средних значениях меток, варьировалась от 8 процентов в наборе данных с изображениями, используемыми для оценки дресс-кода, до 20 процентов в случае с собаками.
Сложности обучения роботов
Для более тщательного изучения, исследователи провели обучение двух моделей для оценки нарушений правил, используя один из четырех параметров данных. Одну модель обучали на описательных данных, а другую – на нормативных, после чего сравнили их производительность.
Интересным оказалось, что модель, обученная на описательных данных, показывает более низкую производительность по сравнению с моделью, обученной на нормативных, при выполнении тех же суждений. Особенно описательная модель чаще неправильно классифицирует входные данные, ошибочно предсказывая нарушение правил. Кроме того ее точность также была ниже при классификации объектов, по которым возникли разногласия у маркировщиков данных.
Это исследование подтверждает значимость того, как и каким путем была получена информация. Важно учитывать контекст обучения и контекст применения данных, чтобы управление ИИ было корректным.
Один из способов решить эту проблему – повышение прозрачности информации. Если исследователи знают, как данные были собраны, они могут более эффективно использовать их. Другой возможной стратегией является точная настройка описательно обученной модели на небольшом количестве нормативных данных. Эта концепция, известная как трансфертное обучение, будет исследоваться в дальнейшем.
https://hi-news.ru/eto-interesno/ii-na-grani-zakona-kak-issledovateli-vyyavili-pristrastie-robotov-sudej-k-zhestokomu-pravosudiyu.html