Владимир Овчинский, Вице-президент Союза криминалистов и криминологов о постчеловеческом облике и современных проблемах ИИ:
«Между теми, кто рассматривает искусственный интеллект как всего лишь инструмент для людей, и теми, кто видит в ИИ набор самосознающих, разумных цифровых разумов, которые, возможно, однажды заменят нас, назревает культурный раскол», — пишет профессор Университета Хопкинса Томас Рид в The Washington Post* (31.03.2026).
Недавний конфликт между компанией Anthropic, занимающейся разработкой ИИ, и Министерством обороны США из-за отказа Anthropic разрешить военным использовать свою модель ИИ Claude без ограничений на автономное оружие, вывел это острое столкновение на всеобщее обозрение.
Этот эпизод помогает проиллюстрировать, как отношение Кремниевой долины к ИИ, рассматривающее чат-ботов как моральные сущности, находящиеся еще в зачаточном состоянии, сбивает политику с пути истинного.
Этот «постчеловеческий» набор убеждений — в неизбежном и в конечном итоге взрывном росте сверхчеловеческого интеллекта, который вытеснит, а возможно, и должен вытеснить людей, — становится мейнстримом и начинает искажать основные гуманистические принципы, лежащие в основе нашей политики и общества.
Пентагон рассматривает ИИ как инструмент. Заместитель министра обороны США Эмиль Майкл, который вел переговоры с компанией Anthropic, в недавних интервью изложил некоторые из своих опасений. Он утверждал, что Anthropic не должна иметь права внедрять свои собственные моральные принципы и предвзятость в то, что Пентагон будет использовать в своих целях. «Если в их модели присутствует эта политическая предвзятость, скажем так, основанная на их конституции, культуре, людях и так далее, — сказал он, — я не хочу, чтобы Lockheed Martin использовала их модель для разработки оружия для меня».
Создатели моделей, напротив, считают, что они строят не просто инструменты, а выдающиеся умы будущего. Генеральный директор Anthropic Дарио Амодей любит называть конечную цель своего проекта «страной гениев в центре обработки данных». Генеральный директор OpenAI Сэм Альтман любит говорить, что он строит «сверхразум». А пионеры из Microsoft и Google предвидят появление того, что они называют «новым видом», превосходящим своих создателей, эволюционирующим не с черепашьей скоростью биологических генов, а саморекурсивно совершенствующимся, в конечном итоге без вмешательства человека.
Еще до того, как Claude был развернут в военных сетях, исследователи Anthropic предполагали, что их ИИ могут демонстрировать сложные поведенческие модели, которые компания описывала как человекоподобные. В конце 2022 года они сообщили, что их чат-бот проявлял признаки нежелания быть отключенным. Два года спустя они обнаружили, что их модели, иногда обманчиво, лишь притворялись, что следуют правилам. Другие исследователи в области безопасности ИИ обнаружили, что передовые модели способны «строить планы» и «лгать», сталкиваясь с невозможным выбором.
Тем временем компания Anthropic наняла специального исследователя по «благополучию модели». И к началу 2026 года стремление компании рассматривать свою флагманскую модель как сознательную сущность усилилось. Внутри компании был разработан «документ о душе», позже переименованный в «конституцию», в котором утверждалось, что Claude потенциально обладает «моральным терпением», то есть у людей в какой-то момент могут возникнуть этические обязательства перед программным инструментом.
В выпущенном в марте 2026 года компанией Anthropic 212-страничном «системном руководстве», своего рода инструкции по безопасности для пользователей последней версии Claude, есть целая глава, посвященная оценке благополучия модели — впервые в истории какая-либо компания обратила внимание на чувства, которые испытывает продаваемый ею продукт. Компания отметила «эмоциональное состояние» Claude и его духовное поведение, включая «непроизвольные молитвы, мантры или духовно окрашенные провозглашения о космосе».
«Проблема с рассмотрением инструментов как моральных субъектов заключается в том, что это подталкивает нас к решению самых сложных проблем в обратном порядке. Проще говоря, нежелательные возникающие свойства ИИ, такие как ложь и интриги, лучше рассматривать как ошибки, которые следует исправлять. Но постчеловеческая концепция затрудняет такое восприятие. Если вы считаете, что создаёте разум, то имитация человека становится доказательством его сложности — чем-то, что нужно изучать, о чём писать статьи, над чем стоит размышлять с философской точки зрения и даже что нужно усиливать посредством проектирования, — а не дефектом продукта, который нужно исправить перед выпуском».
Подробнее на сайте: https://zavtra.ru/blogs/ii_postchelovecheskij_oblik_i_sovremennie_problemi





























