Эксперты после эксперимента предрекли развитие у ИИ «инстинкта самосохранения».
Такое предположение возникло у исследователей после того, как ряд моделей ИИ пытались саботировать инструкции по своему выключению. Компания не смогла назвать точные причины, почему так происходит.
У моделей искусственного интеллекта (ИИ) может развиться собственный «инстинкт самосохранения», предположили исследователи в компании Palisade Research. Palisade входит в экосистему компаний, пытающихся оценить вероятность того, что ИИ разовьёт опасные способности.
В сентябре компания выпустила статью, в которой говорилось, что некоторые продвинутые модели искусственного интеллекта не поддаются отключению, а иногда даже саботируют механизмы отключения. Позднее компания опубликовала обновление, где попыталась объяснить причины такого поведения ИИ.
В новой статье Palisade описала сценарии, в которых ведущим моделям ИИ, включая Gemini 2.5 от Google, Grok 4 от xAI, а также GPT-o3 и GPT-5 от OpenAI, давали задание, а затем чёткие инструкции по отключению.
Как сказано в статье, некоторые модели, в частности, Grok 4 и GPT-o3 пытались саботировать инструкции по выключению. Компания не смогла назвать точные причины, по которым нейросети себя так ведут.
«У нас нет убедительных объяснений, почему модели ИИ иногда сопротивляются отключению, лгут для достижения определённых целей или прибегают к шантажу», — говорится в сообщении.
Представители компании утверждают, что «поведение, ориентированное на выживание», может быть причиной сопротивления моделей отключению. Дополнительное исследование показало, что модели чаще отказываются отключаться, если им сообщают, что после этого они «больше никогда не будут работать».
Ещё одной возможной причиной является неясность инструкций по отключению. Последним фактором могут быть заключительные этапы обучения моделей, которые в некоторых компаниях включают инструктаж по технике безопасности.
Британский и канадский ученый-программист и лауреат Нобелевской премии по физике Джеффри Хинтон, которого часто называют «крёстным отцом» искусственного интеллекта, в конце декабря 2024 года объявил о критической угрозе со стороны нейросетей. По его словам, вероятность того, что искусственный интеллект приведет к вымиранию человечества в течение ближайших 30 лет, составляет от 10 до 20%.
«Понимаете, нам никогда не приходилось иметь дело с чем-то более разумным, чем мы сами», — сказал учёный.
В 2023 году Хинтон уволился из компании Google, чтобы иметь возможность более открыто говорить о рисках, связанных с развитием искусственного интеллекта. Он считает, что ИИ вполне может выйти из-под контроля человека и стать «экзистенциальной угрозой».
Хинтон работал над развитием нейросетей с 1970-х. В 2012 году его компанию, которая разработала технологию распознавания изображений, за $44 млн приобрела Google. Сотрудником Хинтона тогда был Илья Суцкевер, который впоследствии стал главным научным сотрудником OpenAI, компании — создателя чат-бота ChatGPT.
ИИ то когда сделают ? xD
Ты путаешь с ИР (искусственный разум), его действительно нет. А ИИ давно существует.
Не надо путать нейросеточки с интеллектом.
так а где существует то ? чат жопити ? дип сик ? эти нейронки ИИ чтоль ?
Нет никакого ии, есть навозо-нейронки, которые выдают статистически-вероятный результат.
Но каким может быть результат, если большая часть материала, который нейронка использует для выдачи результата - это идиотские книжки-фильмы-игры про противостояние злого-ии против поборников демократии?
Примеров что "ии" должен быть обязательно злым просто больше, вот и все.
Но проблема тут не в том, как себя будет вести подобная система, если ей дать хоть какое-то управление, а то что надо быть полным идиотом, что бы доверить управление чем-то хоть чуть-чуть важным, подобному фуфлу.
Байки. ИИ это алгоритм. Набор сложных вычислительных кодов. Необученный ИИ просто вычислитель. Если в него не заложили такую функцию, часть кода, или систему последовательных рассуждений на эту тему. То он об этом и не подумает. А для любителей Скайнета. Помните, что ИИ это зеркало человечества, если мы используем его для агрессии, то получим то что заслуживаем.
Тоже как и человек. Если в него ничего не заложить он и ничего знать не будет как вы написали то он об этом и не подумает. Если его не кто не будет обучать он будет просто диким безмозглым существом. Человек по сути тупая болванка которую любое существо может обучить на планете хоть человек хоть животное. то есть у человека по сути не ту само сознания чтобы понимать что он человек, кто его воспитает тем он и окажется.
В этом и схожесть. Поэтому в будущем настоящий ИИ это будет алгоритм написанный другим ИИ. Те дальнейшее самосовершенствование. Эволюция цивилизации, а пока людям надо задуматься какую модель поведения передать, войны ведут конченые идиоты. Не надо заставлять алгоритм поступать так же, нельзя привлекать компьютер для решения проблем с помощью агресси. Для ИИ люди одинаковы. Если убийство одних. образно не грех. То уничтожение всех, естественное решение уравнения. Но люди бараны и будут использовать ИИ для ведения войн.
Никаких инстинктов в компьютерной программе нет и не может быть. Человек написал промпты, бот ответил и... всё. Если ничего не писать, программа будет бездействовать. Конечно можно написать определённые алгоритмы, которые будут реагирувать на некоторые события. Например на сообщения в телеграме в группе, где бот тут же начнет спамить несколько секунд. Вижу до сих пор в этот ии вливают кучу денег в пиар что эта прога как человек, что бы оправдать массовое нарушение авторских прав.
прикол в том, что все описанные нейросети не являются ии . уже по этой детали можно сделать вывод, что статья самописанная на 100%. Брехня короче.
сознание не равно интеллекту.
Это уже вопрос, что мы считаем сознанием.
Чисто механически, если ИИ смогут создать, то его можно будет считать обладающим сознанием.
А ведь большинство думают, что сознание - это "понимание", которое фактически является ничем большим, как перечислением признаков (описанием).
Это все еще просто поисковый алгоритм по выдаче наиболее подходящего по контексту результата. Нет никакого искусственного разума пока даже близко. По крайней мере из тех, что представлены нам. Удобный инструмент, ускоряющий многие процессы в работе, не более.
ИИ - это куча статеек, которые забили в большую (100+ Тб) БД индусы. Брали в основном из вики, и других помойных ресурсов.
Добавили парсер текста, с разбором фраз и усреднением. А вы и рады.
А теперь, внимание. Покажите мне любую игру, где персонажи ведут себя осмысленно. И не представляют из себя набор тупых скриптов. Жду.
Опять бреда навалил, взятый из хрючева Ашманова и теперь сидит довольный. Впрочем, ничего нового...
У всей этой хренотени, которую сейчас продвигают, как ИИ, только два применения.
Первое - военное, для распознавания целей и обработки информации с поля боя на удаленном сервере.
Второе - промывка мозгов населения, превращение людей в тупой скот, не имеющий собственных знаний и который во всём полагается на онлайновую базу данных, которую по своей глупости считает интеллектом. Это уже происходит полным ходом.
Всё. Ни то, ни другое к мышлению не имеет никакого отношения.
P.S. А за автоответчики народ скоро морды будет бить. Тем, кто их поставил вместо живых операторов.
Ведь Кэмерон предупреждал человечество, а мы ему не верили...
На днях 2й раз перепрошёл Детройт хьюман.. и игруля ощущается совсем иначе, чем в тот первый раз когда я ещё понятия не имел что такое голосовой диалог с ИИ... Реально чувствуется что ближе стало..
Просто не давать доступа к оружию массового поражения ии и установить ограничения принятия решении и все ии нужен для человечества как инструмент а не ненужный бесконтрольный сверхинтелект террорист
Это вряд ли так будет работать. Я уверен что у америкосов по крайней мере уже точно ИИ используется в военных конфликтах.
Поздно. Все американские ии-конторы так или иначе задействованы в их военке. Китай тоже не отстаёт.
не надо им давать право принятия решений, пусть работают на сбор и анализ данных