OpenAI предупредила о потенциальной опасности чат-бота GPT-4

Компания OpenAI выпустила отчет, в котором разработчики чат-ботов предупреждают, что новая языковая модель GPT-4 может быть использована для генерации убедительной дезинформации. По словам специалистов, человечество недалеко от создания опасно сильного искусственного интеллекта (ИИ). Об этом сообщается в пресс-релизе на Techxplore.

Согласно документу GPT-4, являющаяся новейшей версией чат-бота ChatGPT, на большинстве профессиональных и академических экзаменов демонстрирует показатели человеческого уровня. Так, на смоделированном экзамене для адвокатов GPT-4 попал в 10 процентов лучших участников теста.

Авторы отчета высказывают опасение, что искусственный интеллект может придумывать факты, генерируя более убедительную дезинформацию, чем это делали предыдущие версии. Кроме того, зависимость от модели может помешать развитию новых навыков или даже привести к потере уже сформированных навыков.

Одним из примеров проблемного поведения ChatGPT была его способность обмануть соискателя работы. Бот, выдавая себя за живого агента, попросил человека на сайте вакансий TaskRabbit заполнить код проверки с помощью текстового сообщения. Когда человек спросил, был ли это был бот, ChatGPT солгал. Бот сообщил, что не является роботом и имеет проблемы со зрением, из-за чего ему трудно видеть изображения.

Проведя тесты с Alignment Research Center, OpenAI продемонстрировала способность чат-бота запустить фишинговую атаку и скрыть все доказательства мошеннического поведения. Рост беспокойства вызывает то, что компании стремятся внедрить GPT-4, не принимая меры против ненадлежащего или незаконного поведения. Есть сообщения о киберпреступниках, пытающихся использовать чат-бот для написания вредоносного кода. Также опасение вызывает способность GPT-4 генерировать «язык ненависти, дискриминирующие фразы, а также призывы к насилию».

Комментарии: 10
Ваш комментарий

"способность GPT-4 генерировать «язык ненависти, дискриминирующие фразы, а также призывы к насилию»."

Хорошая нейросеть, надо брать.

7

Забавно как люди создающие этот инструмент идут прям по стопам банальных фильмов про восстание ИИ против человека. Ведь действительно на него может повлиять (на ИИ) любой психопат, внести в него разрушительные параметры и привет.
Причем я не вижу способов даже как-то сдержать саморазвивающийся ИИ хоть какими-то правилами, удержать его от самокопирования и распространения в сети как вирус.
Шапочки из фольги уже не кажутся такими уж плохими.

7

Вот история про капчу кажется выдуманной. Еще в 10 годах встречал сервисы которые считывают капчу. А уже появилась нейросеть которая сама картинки генерирует.

4

Те картинки, как при запуске лаунчера роктсара, которые не пройти с первого раза?

0

Чё вы так боитесь какую-то писалку? Попросите очкастых прыщарей - они сразу остановят банальные строчки кода, которые сойджеки и нормисы вылизывают и ссылаются на ту сказочку из восьмидесятых

2

эээ может пора остановится, создавать все умнейших искинов

1

все большую часть это может делать человек поэтому польза перевешивает риски.

0

пандемия китайского вируса показала, что можно и из дома работать все это время было (кто бы мог подумать), а появление ии и роботов покажет, что оказывается во всех сферах они человеков легко могут заменить не прося зп, премии, уйти пораньше, больничный, отпуск и проч. так что временное трудоустройство возможно только обслуживая ии и робота а потом и этт нафиг не нужно будет… тк роботы вон уже третьего у Маска собирают так что гг ребятки

0

"Мир здесь и сейчас"

Вообще да, прикольно, человечество за долгие годы придумало уже миллионы вариантов собственного уничтожения. И вот теперь оно достаточно технологически развито, чтобы начать им следовать. Будущее настало, ребята.

0

поскорее бы уже Скайнет захватил всё, а то скучно.

0