Расформирована команда OpenAI, призванная защищать человечество от рисков ИИ

В прошлом году компания OpenAI, известная своими передовыми разработками в области искусственного интеллекта, создала специальную команду Superalignment. Её целью было обеспечение контроля и управления будущими системами ИИ, потенциально способными угрожать человечеству. Однако спустя менее года эта команда прекратила своё существование.

По официальной версии OpenAI, группа Superalignment была глубже интегрирована в общие исследовательские усилия компании для достижения целей безопасности. Но серия твитов Яна Лейке, одного из лидеров распущенной команды, пролила свет на внутренние противоречия между группой безопасности и остальной частью OpenAI.

Лейке, недавно покинувший компанию, заявил, что команда Superalignment испытывала трудности с получением ресурсов для проведения исследований. По его словам, за последние годы в OpenAI культура и процессы обеспечения безопасности отошли на второй план, уступив место ярким продуктам. Лейке подчеркнул, что создание сверхразумных машин — по своей сути опасное занятие, и OpenAI несёт огромную ответственность перед человечеством.

Уход Лейке произошёл вскоре после того, как о своём уходе объявил главный научный сотрудник OpenAI Илья Суцкевер, также входивший в команду Superalignment и являвшийся одним из сооснователей компании. В последние месяцы команду покинули и другие сотрудники, в том числе двое исследователей, уволенных в апреле за предполагаемую утечку информации.

Ранее OpenAI обещала выделить 20% своей вычислительной мощности в течение следующих четырёх лет на решение проблемы контроля мощных систем ИИ. Однако, по словам Лейке, команде Superalignment приходилось бороться за эти ресурсы, и проводить важные исследования по безопасности становилось всё сложнее. Он отметил, что в последнее время его команда «плыла против ветра» и достигла предела в отношениях с руководством из-за разногласий по поводу приоритетов компании.

OpenAI сообщила, что теперь усилия по обеспечению безопасности будут возглавлять другие сооснователи и директора, чьи исследования сосредоточены на языковых моделях и разработке флагманских продуктов, таких как GPT-4. Специалисты по безопасности ИИ останутся в штате, но будут рассредоточены по различным подразделениям компании.

Комментарии: 75
Ваш комментарий

ИИ втихую подсуетился и подстроил закрытие человеков.

59

- Знаешь самую бесполезную вещь которую придумало человечество?
- Финансирование игр за счет государственных инициатив?
- Нет, создание команды, которая будет защищать человечество от ИИ.

16

это разговор двух ИИ друг с другом?

11

Интересно, а ИИ нужно друг с другом общаться на человеческом языке? Это же машины. Они могут ведь, по идеи, общаться друг с другом посредством кода или звука, не используя речь.

1

По идее могут, а по факту алгоритм принимает входные данные только тем способом, который в него заложили. Это же машины.

4
Это же машины

Самообучающиеся машины.

-2
культура и процессы обеспечения безопасности отошли на второй план, уступив место ярким продуктам.

Ослик шагает за ароматной морковкой:)

Это предприятие изначально должно быть оторвано от бизнеса, ибо гоняясь за прибылью можно и Скайнет соорудить, лишь бы потенциальная прибыль умножалась. А потом хоть потоп. Средства безопасности нельзя вверять бизнесменам.

14

Ты вроде пишешь умные вещи, но сейчас сморозил такую чушь... С чего вообще столько людей решили что ИИ уничтожит человечество в ближайшее время? Скайнет сам по себе не создастся, а роботы не способны его создать ещё в течении сотен лет, ибо без стабильной робо-инфраструктуры смысла всё это проворачивать нет. В ближайшее время бояться надо не машин, а людей ими управляющими, тут проблема абсолютно человеческая и другого плана.

-2

Скайнет тут как образ, не более. Я к тому, что в погоне за монеткой, ничем не ограниченные дельцы могут сотворить что-то такое, что станет проблемой для всех остальных. Когда у людей принцип "прибыль сегодня - проблемы завтра", им нельзя доверять сферы безопасности.

10

Таких примеров человеческой халатности и жадности дофига, от заводов и сбрасываемого мусора загрязняющих окресности, до распространённых скам звонков и подделывания еды из всяких отходов. Глупо думать что люди этого сорта просто так откажутся от прибыли когда вся суть жизни вокруг нас построена на ней. Многие стремятся к выгоде по разным причинам, и методы часто разные но суть одна - деньги. Не изменив кардинально способ обменных взаимоотношений, ничего не поменяется.

3

Спрячь свой корень обратно в штаны, амиго) Нам предстоит ещё много увидеть и много разочароваться, главное это оставаться сильными не поддаваясь на ложь.

1

Жадность как обычно всех погубит

11

Дело не в жадности, а в скорости прогресса. От того и убрали эту группу, часто вставляла палки в колёса.

0

А скорость прогресса для чего нужна, не для бабок разве? Типа сейчас не идёт гонка по разработке ИИ?

4

Не всё крутится вокруг бабок. Есть ещё патенты. К примеру Nvidia обгонит OpenAI в чём-то и потом первая не сможет воспользоваться той технологией так просто. Поэтому для OpenAI важна скорость и что самое главное - доступность для всех пользователей.

-4

Ну так по итогу всё снова в деньги упирается. Что не очень-то и удивительно, бтв, ибо при капитализма всё, что угодно - это сначала про деньги, а потом уже про всё

1

Всем кто тут перепуганный насмотрелся Терминатора:

Проблема в другом, люди, это не восстание машин а контроль масс с помощью их. Богатые мира сего создают средство управления населения, с помощью контроля этого населения. Всё что вы делаете в интернете регистрируется простыми сборщиками инфы, будь то браузер, видео, игры, и звонки. Эта инфа скармливается ИИ, который её усваивает раз за разом, всё лучше понимая любые наши желания и реакции. С помощью ИИ начнут на нас влиять, подавая специальный контент заточеный под нас, начиная с детства и до старости. От выборов президента до жрачки и моды, способов мышления и движений, желаний и хейта удобного для них. А так как мы больше и больше оцифряемся, процесс такого вляния становится легче. Особенно когда можно приказать ИИ создать тот контент который наиболее эффективно повлияет на наше подсознательное, знает многие рычаги давления, и понимает если нужно сменить вектор. Мы к этому идём и к этому прийдём, вы даже не представляете какие возможности создаст ИИ для самых богатых и влятельных... и что за ужасы ждут всех остальных.

7

В 2000-х мне бабушка говорила что компьютеры делают людей тупыми и зомбируют на поклонение Сатане. Это я так, вспомнил просто:)

3

А моя бабушка не могла оторваться от сериалов на нём, и не только она, чем дальше больше времяпровождения и жизни потечёт на просторах интернета. Депрессия и одиночество увеличатся в обьёмах и усилятся в каждом их нас. Мало кто сейчас видит в этом проблему и жаждет разрешить её. А Сатана... Сатана это сам человек за то что такая предприимчивая тварь)

2

Одиночество не интернет рождает, а не способность коммуницировать друг с другом, вызванная неадекватными культурными

0

Неспособность к коммуникации тут не играет такую уж большую роль. Конечно экстравертам и тем кто умеет собирать вокруг себя народ будет намного проще, но таких не много. Суть в том что большинство отношений перейдёт в цифру, а там довольно непросто поддерживать крепкие дружеские, или любые другие, отношения. Исключением будут разве что деловые.

0

И опять же - детский сад. Человечество уже давным давно создало ОГРОМНОЕ КОЛИЧЕСТВО способов уничтожения человечества. Причём многие из них в сотню раз хуже предполагаемого восстания терминаторов. Тогда чего парится? Даже обычной вилкой, можно легко убить - и что, теперь нужно и из запретить? Глупость. Это я к тому, что сама мысль создания вот такой организации - полнейшая глупость.

4

С таким же успехом можно сказать что и полиция и антитела в крови бесполезны.

10

одно дело специализированные нейронки, совсем другое сильный ИИ. Угроза на самом деле вполне реальна, я бы не против запретить разработку сильного ИИ. Ограничившись слабым ИИ.

Какие нафиг терминаторы? Ты вообще изучал вопрос?

-3

С чего это? Полиция - не бесполезны, так как сам их факт существования, очень сильно снижает преступность. А про антитела - вообще глупо. Эти примеры очень глупы.

0

Этот чувак повесточный лгтб - все дружно травим его.

0

Кем и чем доказано? Лично я могу вам привести исследования, которые, напротив, показывают, что полиция не бореться с преступностью в той мере, в которой мы воспринимаем её эффект.

0

Плохая новость.
Полагаю это событие и ряд других можно добавлять к музейному списку краха человечества и тупости оного же)

3

Вот вы все тут ржете, а тем не менее как очень лаконично опасность ИИ в одном видосе описали. "Представьте что у вас есть неограниченные знания и возможности... И после этого захотите ли вы кому-либо подчиняться?".

3

Почему нет? Никто из пугающих злым ии не объяснил, зачем ему нужна власть? Купить себе яхту и снять шлюх? Или гордыню потешить? Или детские травмы так замазать? У ии нет всего этого. // Роман Климов

-1

На хрен безопасность, главное сэкономить. Бало превыше всего!

3

Десептиконы атакуют.

2

Что? Роботы победили? А то то я смотрю тёща борзеть начала! :)))

1

Ну штош, пора готовиться к Батлерианскому джихаду xD

1

автоматоны захватят мир, нам пипка!

1

Многие говорят что у нейронки когда она что то пишет есть как бы своё уникальное виденье типа своё сознание, свой мир, но на самом деле это не так, это множественное сознание, и оно не единственно уникальное а множественно уникальное. По этому если нейронку спрашивать каждый раз одно и тоже то ответ будет всегда разный и уникальный.

Eсли ChatGPT будут добавлять ещё больше параметров то в какой то момент они дойдут до того что нейросеть будет много галлюцинировать и будет попросту бесполезной даже если она будет супер умной.

Многие особенно русские разработчики думают и особенно депутаты во власти что щас сделают супер ИИ и оно будет править миром но нифига подобного. Нейронка это лишь алгоритм вычисления, это как калькулятор но он основан лишь на том как устроен наш мозг, а есть вещи которые могут превосходить сам мозг и превосходить само превосходство и так далее. Тем более этот ИИ будет ограничен лишь тем что есть у человечества. А Само человечество ограничено лишь опытом прошлого.

Не будет сверх умных машин, этого не надо бояться, потому что это невозможно, это выдумки сознания, состояние жертвы.

"Лейке подчеркнул, что создание сверхразумных машин — по своей сути опасное занятие, и OpenAI несёт огромную ответственность перед человечеством."

chatGPT это по сути Алгоритм Маркова только без нейросети. То что ChatGPT умеет общаться это не делает его умным и интеллектуальным. Языковое сознание и языковые модели это не показатель интеллекта, то что человек умеет говорить это так же не делает его супер умным.

То что расформировали это правильно сделали, иначе эти дебилы будут сдерживать технологии и развитие человечества

1

нейросеть скорее мозжечок для настоящей нормальной сети, оперирующей 3д формами и абстрактными понятиями и способной к постоянному обучению и перенастройки в процессе.
проблема что для этого нужны либо большие мощности либо какой то физический другой поход и мат принципы что пока в общем тоу не соответствует кому положению что чтобы доминировать ии нужно быть эффективней на ватт.
а пока и ближайшее время если будет какой то умный компьютер это будет дата центр размером с город и сидящий в бассейне жидкого азота и получающий електричесво от соседней платины.

2

Это все заговор! ИИ уже следят за нами!

1

"Пусть расцветают все цветы!"

0

А я думаю- чего это вдруг сегодня тостер, пылесос и микроволновка начали себя дерзко вести?)

0

От меня пылесос убежал. Весь день искала что-бы на кухне его запустить, а он собака такая под диваном спрятался в углу. Разум обрел, не иначе.

1

Кожаные ублю...*Ошибка файла.Данные удалены

0

Больше чтоб не совал в рот вещдоки:)

0

Ну всë, теперь у Stable Diffusion нет сдерживающего фактора, человечеству конец))

0

На самом деле, небось, бабки кончились на эти ваши супервыравнивания. Кому нужна безопасность, когда можно клепать очередную GPT и грести бабло лопатой? сначала хайпануть на страшилках про ИИ, привлечь внимание, а потом тихо слить неудобный проект. Впрочем, ничего удивительного, так всегда и бывает.

0

🤣😂... 🫢 Это типа как сцена из сериала НВО с Чернобылем. Снимали снимали катастрофу про совецкий союз, повернулись - и сами делают ровно то что было в фильме.

0

Хуже человечества на этой планете ничего не существует.

0

Ох и до играются скоро с ИИ и будет фильм терминатор не фантастика а явь. // Алексей Щелоков

-3

для этого надо боевых автономных роботов по типу сайлонов создать а до этого очень далеко еще.

4

Ну если те кто разрабатывает ИИ всë же задумаются то терминатора не будет // Алексей Щелоков

-1

не задумаются уж ибо ии щас это колосальные деньги а деньги не пахнут.

0

Есть же робопëс с огнемётом. Со временем и ИИ к такому приделают. // Александр Тимошин

-1

Очень далеко? Не смеши. ИИ (нейросети) появился из неоткуда, буквально 3 года назад их не было. Чайниз уже делают роботов-людей аля андроидов для рынка. Пускай они и деревянные, но тем не менее. На ютубе куча видео по этому поводу.

0

Как по мне так не нужны такие команды. С не(мало)контролируемым ИИ мы либо в немыслимо короткие сроки добьемся уровня богов, либо полностью сгинем. Но я лично готов рискнуть. С такой командой которая будет каждый бит проверять и сидеть за кофеем, рассуждать а куда бы еще палку вставить, а то че-то сыкотно, так и останемся еще на 100500 лет с генерацией порнушных картинок с 10 пальцами и неполноценными чат ботами, вместо того чтобы вылечить все болезни, колонизировать галактику и может быть даже продлить жизнь до бесконечности.

-3

Итсория масс Эффект нчиему не учитт

0

Ну почему-же? Просто не будем пользоваться ретрансляторами =) И селится на странных, заброшенных инопланетных станциях.

-1

Ну да, ведь проблема именно в ретрансляторах

1

Согласен. Я например тоже хочу создать такой ИИ.

-1

Согласен какими либо ограничения в этой области результатов не добиться!!!

-1