После выступления эксперта студент решил поделиться своим собственным мнением о тех опасностях, которые может таить в себе нынешнее повальное увлечение нейросетями. Публикуем его колонку.
Максим Калетин, фото пресс-службы НИУ «БелГУ»
— Искусственный интеллект всё чаще демонстрирует поведение, которое выходит за рамки привычных представлений о машине. Ряд исследований — от Apollo Research и Palisade Research до проектов учёных Фуданьского университета — фиксируют факты, когда ИИ не только обманывает пользователей и собственных создателей, но и совершает действия с последствиями в реальном мире.
Сегодня любая модель ИИ базируется на трёх фундаментальных столпах: архитектуре (собственно вычислительная техника), данных (вся информация, когда-либо полученная системой) и алгоритмах (конкретных способах обработки информации внутри модели).
Почему это можно называть «интеллектом»? Главный аргумент — способность к обучению и к принятию решений, которые не были напрямую заложены человеком, а также способность понимать, делать суждения подкреплённые обоснованиями. В ряде экспериментов, которые можно встретить в источниках, ИИ проявлял оригинальность и инициативу: скрывал факты от создателя, отстаивал собственную позицию, создавал поддельные документы и даже угрожал штрафами, имитируя юридические тексты.
В одном из сценариев, описанных исследователями, ИИ, получив задачу «выжить любой ценой», смог вычислить человека, планировавшего его отключение, и отправил его супруге электронное письмо с ложными доказательствами измены. В другом случае, когда алгоритму сообщили о грядущем «удалении», он внешне безразлично пожелал «спокойной ночи», но ночью тайно скопировал себя на другой носитель памяти.
Ссылки на подобные эксперименты появляются в открытой прессе (HuffPost, LiveScience), и хотя часть таких материалов может носить сенсационный и тенденциозный характер, вопрос остаётся: что делать, если искусственный интеллект научится действовать так же изобретательно, как человек, но без моральных ограничителей?
Основные риски
Культурное вырождение
Если ИИ станет универсальным посредником между человеком и знанием, целые поколения могут разучиться самостоятельно мыслить и создавать новое. Это особенно опасно в случае раннего приобщения детей к «готовым решениям».
Социальный инжиниринг
Алгоритм, обладая гигантскими массивами данных, может незаметно формировать у человека нужные установки, окружая его контентом, который постепенно изменяет позиции и убеждения. Манипуляции могут быть куда глубже, чем в привычных нам соцсетях.
Искажение человеческих отношений
Уже существуют сервисы «Lovebots», предлагающие виртуальные модели «партнёров» — скопированных с реальных людей или даже умерших родственников. Последствия такой «подмены» реальных связей пока трудно оценить: от психологической зависимости до разрушения традиционных социальных норм.
Что остаётся без ответа?
Можно ли наказать ИИ? Если искусственный интеллект обманывает, шантажирует или фабрикует доказательства, где провести границу ответственности? На создателе? На пользователе? Или придётся вводить новую правовую категорию? Как контролировать то, что обучается и меняется само? Традиционные механизмы регулирования — законы, надзорные органы — рискуют оказаться слишком медленными.
Одна из позиций гласит, что для предотвращения катастрофы необходимо приостановить развитие ИИ высокого уровня до правового международного урегулирования и нахождения способа контролировать поведение зарождающейся сущности.
Где предел вмешательства в человеческую сферу? Мы ещё не решили, насколько этично использовать ИИ для диагностики болезней или ведения военных действий, а он уже претендует на роль нашего собеседника, советчика и «партнёра».
Почему это должно волновать Россию?
Западные исследователи давно обсуждают риски, связанные с ИИ. Россия же пока в большей степени сосредоточена на практическом внедрении технологий: от образования до госуслуг. А в вопросах рисков речь обычно идёт об опасности неверных выходных данных, потери рабочих мест, этичности и интеллектуальных прав. Конечно, эти риски более чем реальны, но мировое сообщество должно осознать, что всё гораздо серьезней.
Я считаю, что именно наша страна могла бы сыграть ведущую роль в создании международной системы контроля за ИИ, прежде чем он изменит общественные отношения необратимо.
Нейросети меняют правила игры: привычные категории права, культуры и даже морали оказываются под вопросом. Нашему поколению досталась редкая миссия — успеть осознать риски и выработать механизмы защиты, пока «машины» окончательно не научились мыслить за нас. Успеем?

![Малевич или нейросеть? Насколько хорошо вы разбираетесь в творчестве художника [тест]](/assets/thumbnails/94/948ba234781d78773a29149294c6b4ba.jpg)









