Владимир Овчинский об искусственном интеллекте

Владимир Овчинский, Вице-президент Союза криминалистов и криминологов о постчеловеческом облике и современных проблемах ИИ:

«Между теми, кто рассматривает искусственный интеллект как всего лишь инструмент для людей, и теми, кто видит в ИИ набор самосознающих, разумных цифровых разумов, которые, возможно, однажды заменят нас, назревает культурный раскол», — пишет профессор Университета Хопкинса Томас Рид в The Washington Post* (31.03.2026).

Недавний конфликт между компанией Anthropic, занимающейся разработкой ИИ, и Министерством обороны США из-за отказа Anthropic разрешить военным использовать свою модель ИИ Claude без ограничений на автономное оружие, вывел это острое столкновение на всеобщее обозрение.

Этот эпизод помогает проиллюстрировать, как отношение Кремниевой долины к ИИ, рассматривающее чат-ботов как моральные сущности, находящиеся еще в зачаточном состоянии, сбивает политику с пути истинного.

Этот «постчеловеческий» набор убеждений — в неизбежном и в конечном итоге взрывном росте сверхчеловеческого интеллекта, который вытеснит, а возможно, и должен вытеснить людей, — становится мейнстримом и начинает искажать основные гуманистические принципы, лежащие в основе нашей политики и общества.

Пентагон рассматривает ИИ как инструмент. Заместитель министра обороны США Эмиль Майкл, который вел переговоры с компанией Anthropic, в недавних интервью изложил некоторые из своих опасений. Он утверждал, что Anthropic не должна иметь права внедрять свои собственные моральные принципы и предвзятость в то, что Пентагон будет использовать в своих целях. «Если в их модели присутствует эта политическая предвзятость, скажем так, основанная на их конституции, культуре, людях и так далее, — сказал он, — я не хочу, чтобы Lockheed Martin использовала их модель для разработки оружия для меня».

Создатели моделей, напротив, считают, что они строят не просто инструменты, а выдающиеся умы будущего. Генеральный директор Anthropic Дарио Амодей любит называть конечную цель своего проекта «страной гениев в центре обработки данных». Генеральный директор OpenAI Сэм Альтман любит говорить, что он строит «сверхразум». А пионеры из Microsoft и Google предвидят появление того, что они называют «новым видом», превосходящим своих создателей, эволюционирующим не с черепашьей скоростью биологических генов, а саморекурсивно совершенствующимся, в конечном итоге без вмешательства человека.

Еще до того, как Claude был развернут в военных сетях, исследователи Anthropic предполагали, что их ИИ могут демонстрировать сложные поведенческие модели, которые компания описывала как человекоподобные. В конце 2022 года они сообщили, что их чат-бот проявлял признаки нежелания быть отключенным. Два года спустя они обнаружили, что их модели, иногда обманчиво, лишь притворялись, что следуют правилам. Другие исследователи в области безопасности ИИ обнаружили, что передовые модели способны «строить планы» и «лгать», сталкиваясь с невозможным выбором.

Тем временем компания Anthropic наняла специального исследователя по «благополучию модели». И к началу 2026 года стремление компании рассматривать свою флагманскую модель как сознательную сущность усилилось. Внутри компании был разработан «документ о душе», позже переименованный в «конституцию», в котором утверждалось, что Claude потенциально обладает «моральным терпением», то есть у людей в какой-то момент могут возникнуть этические обязательства перед программным инструментом.

В выпущенном в марте 2026 года компанией Anthropic 212-страничном «системном руководстве», своего рода инструкции по безопасности для пользователей последней версии Claude, есть целая глава, посвященная оценке благополучия модели впервые в истории какая-либо компания обратила внимание на чувства, которые испытывает продаваемый ею продукт. Компания отметила «эмоциональное состояние» Claude и его духовное поведение, включая «непроизвольные молитвы, мантры или духовно окрашенные провозглашения о космосе».

«Проблема с рассмотрением инструментов как моральных субъектов заключается в том, что это подталкивает нас к решению самых сложных проблем в обратном порядке. Проще говоря, нежелательные возникающие свойства ИИ, такие как ложь и интриги, лучше рассматривать как ошибки, которые следует исправлять. Но постчеловеческая концепция затрудняет такое восприятие. Если вы считаете, что создаёте разум, то имитация человека становится доказательством его сложности — чем-то, что нужно изучать, о чём писать статьи, над чем стоит размышлять с философской точки зрения и даже что нужно усиливать посредством проектирования, — а не дефектом продукта, который нужно исправить перед выпуском».

Подробнее на сайте: https://zavtra.ru/blogs/ii_postchelovecheskij_oblik_i_sovremennie_problemi

This entry was posted in 1. Новости. Bookmark the permalink.

Comments are closed.