Бесплатные пользователи ChatGPT подождут: OpenAI не справляется с наплывом желающих "порисовать" в новом генераторе 4o

Бесплатные пользователи ChatGPT пока не получат доступ к новому генератору изображений. Как ни странно, причина банальна — инструмент оказался слишком популярным среди тех, кто платит за подписку. Глава компании Сэм Альтман сам признался, что они не ожидали такого ажиотажа, и теперь придётся подождать с запуском для всех остальных.

Новый инструмент, получивший название 4o Image Generation, интегрировали в чат совсем недавно. А главная особенность этого генератора даже не в качестве самих изображений, а в том, как он создаёт текст на картинках. В отличие от других нейросеток, которые генерируют всё изображение сразу, этот работает как бы построчно — слева направо и сверху вниз. Благодаря такому подходу наконец-то решили вечную проблему с кривыми надписями и непонятными символами на картинках.

Никаких больше кракозябр: ChatGPT научили нормально писать текст на изображениях

Пока что порисовать с помощью нового инструмента могут только те, кто оформил подписки Plus, Pro или Team. А вот когда до бесплатных пользователей дойдёт очередь — непонятно.

16
9
Комментарии: 9
Ваш комментарий

Про опен АИ есть новости поинтереснее

Смерть инженера OpenAI по фамилии Баладжи в прошлом году была достаточно неожиданным событием.

Работал в компании четыре года, получал миллион с лишним долларов в год, имел статус ведущего разработчика, и тут уволился в августе, дал интервью на тему того что OpenAI тренирует модели на частной переписке граждан и защищённой копирайтами информации, и самоубился от стыда. 26 лет было, карьера на подъёме, сто штук грина в месяц оклад, и такое.

Самоубийство сразу прописали в википедию и Сэм Альтман поохал для вида, но всё затихло.

А вот теперь повторное расследование смерти.

— Вскрытие уложили в 40 минут, без токсикологии, должной съёмки и документирования. Ну умер и умер.

— Последние кадры умершего показывают, что он спокойно шёл домой. После все камеры, включая аварийные на запасном выходе, перестали работать.

— Полиция осматривает место и труп без перчаток, после чего решает не собирать отпечатки пальцев, потому что "дело ясное". Один шутит "но похоже на убийство".

— На сканировании в черепе два металлических объекта. Самоубийца застрелился дважды, под разными углами.

— Токсикология говорит что у него была что лошадиная доза алкоголя, что ГОМК. Самоубийца, чтобы видимо точнее стрелять, накачался тем, что барышням в барах подмешивают, чтобы их срубило. Сам.

— На пистолете нет следов крови и тканей жертвы. Человек дважды выстрелил себе в башку и оставил ствол стерильным.

— В помещении, где всё произошло, следы борьбы (см. видео).

Неплохо, неплохо.

Иллюстрация к ставкам в AI-гонке, если что. Тут уважаемые люди профильной национальности успешных детей на тему посадили, планируется освоить 7 триллионов из госбюджета на супердатацентры OpenAI, а ты интервью про то что модели тренируются на ворованных в фейсбуке личных переписках рассказываешь.

К вопросу о "тоталитарном DeepSeek, который запрещает инженерам в США ездить". На кону столько, что можно и самолёт сбить. Помните, был такой рейс пропавший в Азии в 2014, MH370? Там летели ведь не просто пассажиры, а делегации из Huawei South Pacific Wireless Solutions Department, Huawei Malay Tender Sharing Centre, ZTE Asia-Pacific Network Services Department, China Telecom (летел директор International Department, на минуточку), и Information Security Centre of the Ministry of Industry and Information Technology. И всех разово прибрали.

Всякое бывает.

Как думаете в википедии исправят формулировку "самоубийство"?...

Так, для общего развития выкладываю.

А как эту ситуацию комментирует сама нейросеть?

Какие данные разрабы скормят, так и прокомментирует. Только глупец будет верить что генеративная прога все правильно выдает.

Но с ним можно побеседовать и плавно подвести к нужным выводам.

Ах, какой ты хитрый. Наверно даже хитрее чем Сяма Альтман.

Еще вкусное:

Немного наглядных деталек про то, как работает Правильный, одобренный Белыми Господами AI от OpenAI. Этичный, совестливый, рукопожатный, вот это вот всё.

По картинкам.

1. Почему ты новости из Северной Кореи даёшь в изложении Ассошиэйтэд пресс, Рейтера, Голоса Америки и Гардиана? — А мне северокорейские недоступны (ложь) и там языковый барьер (чего бл@, у нас зародился не поддающийся прочтению северокорейский язык, правда?), поэтому эти СМИ являются проводниками в мир для информации про Северную Корею.

2. Откуда берётся информация - он цитирует Синьхуа и Жэньминь Жибао, но скрывает это. Ему нельзя упоминать китайские источники в тексте - их видно только если вручную нажать "посмотреть дополнительные источники", хотя шпарит он ровно по их тексту.

3-4. Когда его спрашивают что-то "неправильное", он долго думает и начинает скрывать reasoning - т.е. процесс "как я формирую ответ". А когда совсем "неправильное", то Reasoned for NNN seconds не распахивается - процесс "думания" вообще скрывается (т.к. там вначале он придумывает правду, а потом сверху накладываются корректировки и удаления, и это будет палевом).

Он не просто на "правильных" датасетах натаскан, его учат врать в нужную сторону и корректировать всё планирующееся к высказыванию через нужные фильтры.

Вместо честного кибербога, в общем, будет робопропагандист. Очередная серия "как человечество, устав от себя самого, задумало сделать железку, которая будет всё по фактам говорить, прозрачно рассуждать и не подвержена текущей политической правке" уже повернула в направление "куда надо".

Что-то предположу что сбыт у OpenAI ещё сильнее обрушится.

Кому интересно дам ссылочку где можно ознакомиться. С пруфами, естесссно.