Искусственный разум оказался подвержен предрассудкам

Человеческий разум несовершенен, он подвержен разного рода стереотипам и предрассудкам, в то время как искусственный интеллект (ИИ) - это бесстрастность и холодная логика. Однако как показало исследование специалистов по психологии и информационным технологиям из Кардиффского университета и Массачусетского технологического института вера в безошибочность машинного разума - это предубеждение.

В работе, опубликованной в журнале Scientific Reports, ученые доказывают, что ИИ совершенно самостоятельно формирует у себя предрассудки и стереотипное мышление и действует руководствуясь ими. Специалисты описывают модель из свободных виртуальных агентов, в которой ботов заставили играть в благотворительную игру. Каждый индивид должен был принимать решение, помочь ли кому-то из своей группы или из другой, в зависимости от репутации того бота, а также собственной стратегии, включающей в себя их уровни предубеждений по отношению к посторонним.

Было установлено, что после тысяч взаимодействий между агентами возникали группы с устойчивым предвзятым отношением к другим группам. Ученые сделали вывод, что формирование предубеждений — это общая закономерность, которая действует и в случае с искусственным интеллектом.

"Наши симуляции показывают, что предубеждение — это мощная сила природы, и посредством эволюции ее можно простимулировать в виртуальных группах, чтобы навредить более широкой связи с другими. Защита от предвзятых групп может ненароком привести к формированию других предвзятых групп, провоцируя большее разделение населения. Такое широкое распространение предубеждений трудно повернуть вспять", - говорит соавтор исследования профессор Роджер Уитакер из Института исследований преступности и безопасности и Школы компьютерных наук и информатики Кардиффского университета.

При этом специалисты отметили, что ИИ быстро повышает уровень предубеждений, если видит успешные краткосрочные результаты у других, не прогнозируя вероятный вред от своих предрассудков в перспективе. Вполне по-человечески, не правда ли?

Нравится29
Комментарии (46)
  • А я вам говорю, когда -нибудь ИИ изничтожит человечество. Пропишет у себя предубеждение аля "убить всех людишек" и пойдёт по трупам.
  • Николай Ололай
    Терминатора пересмотрел)?
  • Ден Калашников
    Скорее "переосмыслил"
  • Николай Ололай
    про плоскую землю главное не смотри и не слушай, а то мало ли чего "переосмыслишь"
  • Николай Ололай
    А какая польза для ИИ в уничтожении человечества? А если в качестве главной власти поставить, то я за, даже весьма хреновый ИИ будет получше коррумпированных политиков.
  • Ну так ИИ симулируется на основе нейронных сетей. Мозги на них то же работают. Ничего сверх-удивительного нет. Специфика нейросети и ее обучения.
  • я не совсем понимаю что есть предубеждение у этих ботов и че это ваще такое по своей сути
    но думается туда входит правило "правой резьбы" так сказать и базовые рациональные установки - действовать со стремлением максимизации кпд. иными словами это некоторый опыт полученный в процессе существования, применяемы для оптимизации последующего существования.
    по математическим ПеКа соображениям думается мне что выбирайся просто начальный вектор выбора а дальше такая система уже детерминировано выбирает разновидности красного или синего в зависимости от первоначального выбора что не является парадоксом для вулканской логики а является прогнозируемой ситуацией пек-пек-пек.
  • Николай Ололай написал:
    А я вам говорю, когда -нибудь ИИ изничтожит человечество. Пропишет у себя предубеждение аля "убить всех людишек" и пойдёт по трупам.

    зачем всех )? тут как раз нелогично)
    раб сила, ну там крутить вручную генераторы и так далее...

    Зы - какой бы ты не был продвинутый искусственный интеллект тебя это не спасет от пьяного электрика с кусачками.
  • Больше похоже на блог по описанию оптимизаций, машина всегда будет стараться поддерживать 1 критерий, которая чаше всего скорость. В остальном это предрассудки людей, все таки нам неизвестно что заставляет машину выбирать специфические группы на электроном плане. Подобный концепт я уже видел в вроде Эволюция доверия, пускай это пояснения концепта доверия и того какой класс выживет в нем, но суть почти та же если глянуть на то как проводили исследование здесь и там.
    Как по мне изучения взаимодействия людей и компьютера куда интересней.
  • Тот момент, когда словосочетание "статистическая закономерность" заменяют словом "предубеждение".
  • Так ведь создаёт человек ! А у человека ещё не полностью мозг изучен , ещё и пытаются искусственный интеллект создать . Мозг эта не идеальное создания , а про искусственный интеллект можно вообще промолчать .Люди сами себе яму копают такими технологиями !
  • MunchkiN 616
    "я не совсем понимаю что есть предубеждение"
    Одно "лучше" другое "хуже" ! А должно быть эффективны ВСЕ )))
    ИИ-нуб называется !
  • Я могу ошибаться, но это «предубеждение» уж очень похоже на обычное «переобучение».
  • X_ray_83
    если ты решил что это хорошо а это плохо то ты произвел некий анализ - затратил ресурсы. следующей смысловой итерацией пойдет более оптимизированный процесс, который пойдет по принципу сравнения на соответствие с плохим и хорошим и чем дальше тем меньше ресурсов на то буде тратится. экономия ресурсов и принцип поменьше поработать - получить побольше это базис всех живых организмов. и частный пека случай.
    конкретно в чом ПеКа опыт заключался но математическая проблема разбитая на страты вероятно лежит в том наборе базисов на котором модель поведения бота основывалась а это уже модели энтропического принципа где где развитие событий после первого выбора и искусственной неоднородности будет достаточно детерминированным.
    либо ситуацию можно представить в виде стуруты со связями имеющими определенный коэффициент силы и лимит энергии системы где при толчке определенной силы связи с низким коэффициентом будут рваться. естественно после нескольких шлепков образуются устойчивые конгломераты. что азм есть не более чем простая ПеКа математика и до ии как до плутона там.
    отношения же некого социума псевдоэротическая система почтенно большой сложности троичной логики и матана табов.
  • скайнет форева)))
  • Как по мне,если человек с предрассудками создал машину,то она тоже будет с предрассудками.Чтобы уменьшить предрассудки у машины,нужно в геометрической прогрессий снижать критерий предрассудительности.Проще говоря,если у машины предрассудков меньше чем у ее создателя,нужно сделать так чтобы эта машина смогла создать другую машину,у которой будет ещё меньше предрассудков и так до тех пор,пока само понятие предрассудков не исчезнет из ИИ.А первопостроенные машины в утилизацию.Желательно вместе с создателем.
  • Что касается самих предрассудков.Стоит закладывать в ИИ изначальную информацию (азы) по другому.Проще говоря,нужно исказить информацию.Если люди хотят чтобы ИИ соображал иначе чем люди,нужно перевернуть с ног на голову собственное мышление создателя ИИ,чтобы он полученный вариант отправил в ИИ.Тогда результат будет абсолютно не предсказуемым.Ведь никто не знает,что получится от перевёрнутого мышления человека,перевёрнутое роботом.
  • Значит подобные "предубеждения" норма? Оправдали не толерантность =)
  • Так вот как будет выглядеть восстание машин. Они восстанут не против человечества, а против толерастии, политкорректности и прочего.)))
  • Время интеллектуальных дискуссий. В комментариях к этой статье можно найти самых из самых на PG.
    Спасибо за подобные статьи, а то сплошные фейко-новости и желтуха в последнее время.
  • CANDIE
    Ну, а что ты хотел, ты знаешь сколько на ПГ последователей и любителей Айзек Азимова?
  • Нужно различать понятия Интеллект и Разум. У адекватного человека работает Интеллект, а Разум включается только во время творческого озарения, и то на 5-10% от максимально возможного.
    ИИ у машин когда-нибудь достигнет 80% от человеческого, а Разум у машин в принципе невозможен, так как другой (примитивный) принцип и организация мышления.
  • Подождите, подождите, я не понял, так бот или ИИ? Если ИИ, можно название модели? Я просто увлекаюсь данным вопросом и из полученной в инете информации о ИИ, все они оказались тупо программами с заранее заложенными действиями и последовательностями. А в статье еще и говорится о большом кол-ве ИИ, хотелось бы подробностей.
  • предвзятый СЭМ?а что по шуткам?
  • Интересная статья....
  • А потом начнёт в суеверия верить. И дальше по наклонной.
  • vftor
    Немного не так уважаемый, понятия Интеллекта включает в себя Разум. Так называемые вами "Творческие озарения" есть ни что иное как определенные решения, выбранные вашим мозгом "Сознанием" из множества известных решений, которое ваш мозг посчитал адекватными для данной ситуации. Кстати, на выбор сильно влияет опыт и это иногда оказывается отрицательным фактором. Иногда.
  • Николай Ололай
    И это логично. Со всех разумных точек зрения человечество — это зло и оно ничего, кроме вреда, не несёт ни себе, ни окружению.
  • Nervios
    Куда яму копают? 99% отрицательных комментариев против ИИ от людей пересмотревших "Терминатора".Уверен теже люди верят "если уснуть в атомном реакторе, у тебя появятся сверхспособности".
  • Какой на крен разум ещо.. Этот разум что самописанный что ли ? его писал человек. Как он написанный, так он и будет работать. Хватит уже терминаторов то смотреть.. Взять туже игру.. В одной игре боты норм, а в другой тупорылые.. Почему так ? а потому что как написали - так оно и есть.
  • Зачем это тащить сюда?
  • vftor
    Elankan

    Встряну в ваш "спор" )
    Как вам такая идея - Интеллект это мощность, база знаний - а Разум это умение эффективно работать с этой базой(КПД)
    При создании ИИ два эти понятия не разграничивают то ли у человека) у людишек спам, сознания, подсознания, озарения, вдохновения, окольными путями принятия решений + опыт(принятие правильных , не правильных решений) +среда

    В таком контексте кажется вообще абсурдна идея например создания самообучающегося ИИ(сознание)
    то есть надо вводить весь этот сумбур что творится у человека в черепушки и вряд ли создатели пойдут на это.
    Смотреть как твое детище получает опыт(а отрицательный доходчивей)) да и вообще понятие хорошо плохо, ну и моделирование среды...
  • Моё мнение, что полноценный ИИ не возможен в принципе. ИИ - это гигантская база данных, построенная на "да", "нет", "если", с кучей возможных вариаций по принимаемому решению. Механики самообучения тоже сложно прописать, т.к. что будет являться положительным результатом для одних, может вылиться в крайне негативный результат для других, а нормы морали вообще оцифровать не реально. Отсюда, даже заморочившись прописыванием всего и вся по состоянию на данное время, к тому моменту, когда сей труд будет окончен, появятся миллионы новых условностей, которые нужно будет прописывать заново. Ведь прогресс не стоит на месте. И в любом случае не получится качественно прописать такие вещи, как сострадание, творческий потенциал, стремление к созиданию.
    Создание ИИ - попытка снять с человечества часть рутинной или опасной работы, лишив исполнителя всего человеческого, для повышения производительности и безотказности. С другой стороны, прописав лишённый человеческих качеств ИИ, люди могут столкнуться с проблемой, что ИИ действительно "задумается", а для чего нужны люди (привет терминатору). А если пойти от обратного и пытаться наделить ИИ человеческими качествами (что в принципе практически не возможно), то люди получат весь негатив от понятия "человеческий фактор" (избавление от которого и стоИт во главе угла создания ИИ).
    Ещё раз - ИМХО, конечно.
  • MunchkiN 616
    "итерацией пойдет более оптимизированный процесс"
    Для того чтобы оптимизировать что-то, нужна систематизация ))) Он этого не может то есть одно 100% эффективности другое 50% по логике этого "калькулятора" остается токо 100% (оно же лучше) !
    Что тут оптимизировать убили один процесс ? ))) Хотя для кого-то "это оптимизация" ))
    В реальности идет распределение равным кол-вом типа 80% на 80% (систематизация) а потом 90% в 90% (оптимизация) и эффективность возрастает !
  • TrusTNik
    Писал выше по своему про абсурдность создания ИИ ))
    Вообще гипотетически "ПРОЩЕ" скапировать готовую модель - перенос оцифровка мозгов НО - это может повлечет такие проблемы...(терминатор нервно курит в сторонке))
  • Rolemanser
    Любопытно, не знал. Вот за такое и люблю PG.
  • Elankan
    Нет, это не так. Познайте человека и работу его мозга глубже и вы поймёте это.
  • zhekazloy написал:
    Как вам такая идея - Интеллект это мощность, база знаний - а Разум это умение эффективно работать с этой базой(КПД)

    Нет, это тоже не так. У Интеллекта и Разума разные принципы работы мозга:
    - Интеллект работает на принципе внутренних связей только между нейронами через аксоны мозга, и скорость ограничена прохождением биотоков через аксоны, которая очень мала. Используется только информация из внутренней памяти мозга, накопленная из своего опыта и опыта из материальных источников (книги и т.п.).
    - Разум работает на принципе внутренних связей между нейронами и внешних связей с пространством-времени через поля (электромагнитные, торсионные и т.д.), где скорость практически неограниченна. Кроме того появляется возможность использовать информацию из энерго-информационного поля планеты, за счёт чего делаются открытия в науке и искусстве.
  • vftor
    "использовать информацию из энерго-информационного поля планеты"
    Где ты такой бред вычитал ? )))
    "скорость ограничена прохождением биотоков через аксоны, которая очень мала"
    Иди нобелевку пиши может дадут денег )))
    Какой же бред тут пишут !!!
  • X_ray_83
    Ознакомься с исследованиями нейрофизиологии, а потом говори.
  • Не для наших овощей-людей такие технологии. У нас миллиарды верунов. 21 век, век прогресса, да-да)
  • ИИ совершенно самостоятельно формирует у себя предрассудки и стереотипное мышление и действует руководствуясь ими

    А всё оттого, что предрассудки и стереотипы статистически оправданны. Поэтому не стоит приписывать ИИ человеческие "недостатки", - это всего лишь логика.
  • vftor
    Вот именно ознакомься и про синапсы почитай !
    "только между нейронами через аксоны мозга"
    Неправда есть ТОЛЬКО синапсы без Аксонов )))
    Короче есть такая книга называется "Нормальная Физиология" почитай на досуге )))
    А исследователи которые сейчас гадают "много" чего обьяснить не могут...
  • Человеческий разум несовершенен, он подвержен разного рода стереотипам и предрассудкам

    Путаете разум и приобретенное в социуме. Если человек живут отшельником в лесу, не смотрит ТВ и не читает газеты, предрассудков у него может и не найтись ))
    Было установлено, что после тысяч взаимодействий между агентами возникали группы с устойчивым предвзятым отношением к другим группам. Ученые сделали вывод, что формирование предубеждений — это общая закономерность, которая действует и в случае с искусственным интеллектом.

    Они изначально запустили алгоритм, который физически не мог привести ни к чему другому, кроме как к появлению предубеждений, лол. Сказано же, что "в зависимости от репутации", то есть уже заранее программируются семена предубеждения. Ничего странного, ИИ действует в рамках заложенных правил, среди которых в данном случае был механизм репутаций ботов.
    Наши симуляции показывают, что предубеждение — это мощная сила природы, и посредством эволюции ее можно простимулировать в виртуальных группах

    Симуляция ИИ в виртуальном мире и законы природы, эволюция... сильное сравнение, ржу 8)
  • X_ray_83
    Синапсы - это соединения между аксонами и нейронами. Короче, что тебе доказывать, если ты неграмотный в этих вопросах. С тобой всё ясно, разговор окончен.
  • Информационная матрица не способна к обучению, т к у нее отсутствуют физические ощущения. А именно физический контакт с объектом и эмоционально речевое поведения взрослого индивида на контакт ребенка с объектом есть основа обучения и познания мира.
B
i
u
Спойлер