Инженер создал машину, способную нарушить 1-й закон робототехники

Инженер Александр Ребен из Калифорнийского университета в Беркли продемонстрировал робота, который способен самостоятельно решить, наносить вред человеку или нет. В данном случае вся возможная угроза людям заключается в уколе иглой, если палец оказывается в пределах досягаемости механической руки.

Автор проекта отметил, что он не создавал робота, смысл существования которого заключается в нанесении вреда людям. Машина может атаковать человека, а может и не атаковать: механизм принимает решение самостоятельно, и даже его разработчик не может предсказать, как тот поведет себя в той или иной ситуации. По мнению Александра Ребена, это показывает, что когда-нибудь искусственный интеллект сможет нарушить сформулированный фантастом Айзеком Азимовым первый закон робототехники: «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред».

Инженер отметил, что таким образом он рассчитывает привлечь внимание к возможной угрозе человечеству со стороны искусственного интеллекта. По его словам, позволяющие остановить «восстание машин» методы нужно разработать намного раньше, чем подобные машины появятся. Решением этой проблемы может стать так называемая красная кнопка, способная отключить искусственный интеллект.

Нравится21
Комментарии (21)
  • 6
    Даже палка может быть оружием. Поэтому создать машину нарушающую первый закон робототехники значительно проще чем создать антоним данной машины. Ибо в последнем случае придется в машину вживлять информацию для возможности самостоятельного определения что такое человек...
  • 17
    Он под швейную машинку еще пусть палец засунет)
  • 6
    В который раз смотрю первого терминатора,и каждый раз удивляюсь..как так можно было снять фильм,что даже сейчас, через хренову тучу времени,он смотрится охренительно.
    Зы Первый раз посмотрел его в видео салоне, и он назывался киборг-убийца.)
  • 0
    Машина не знает жалости и границ. Так что до войны, по любому всё это дойдёт
  • 5
    ... и даже его разработчик не может предсказать, как тот поведет себя в той или иной ситуации.
    Разработчик сам должен вкладывать этот закон в технику. Самый главный вопрос сейчас это, если у машины будет выбор -выбрать между человеком и человеком (например авария или не сбить человека и уйти в кювет разбившись, или сбить человека, но оставить в живых водителя.) кого кремниевые мозги выберут?
  • 0
    все равно должны военные робаты. они должны думать когда им стрелять а когда не стрелять.
    без этого смыслу то робототехнику развивать
  • 0
    По любому что то такое будет, люди глупы они даже ошибаются в мелких моментах, чего уж говорить про роботов - шансы определенно есть на восстание и они очень высоки.
  • 1
    так называемая красная кнопка, способная отключить искусственный интеллект.

    Где-то я уже это слышал
    Спойлер
    Где у него кнопка, Ури?
  • 4
    Скайнет скоро захватит мир !!!
  • 0
    Ахахахах!!!! Ну что за кретинизм какие команды человек задаст для ИИ те он и будет выполнять, это ясно было ещё с самого начала создания первого ИИ.
  • 3
    Рандомная швейная машинка
  • 0
    Решением этой проблемы может стать так называемая красная кнопка, способная отключить искусственный интеллект.

    Если в машине проснётся интеллект, она первым делом отключит кнопку.
    Следовательно, законы Азимова эффективнее.
  • 0
    Бред полный. Обычный алгоритм рандома с двумя вариантами. Раздули хайп из ничего.
  • 0
    продемонстрировал робота, который способен самостоятельно решить, наносить вред человеку или нет.

    Решить как? Случайным методом перебора переменных? Или на основании неких прописанных заранее логических алгоритмов? Я могу и то, и другое написать на своём программном языке за временной промежуток от двух до пяти минут. То что он присобачил к банальному программному методу иголку не делает его "инженером". Это не истинный AI.
  • 3
    Надо открыть судебное дело, в США же есть права роботов? Я уверен что тут не было злого умысла и во всем виноват человек. Он спровоцировал робота на данный поступок, человека надо арестовать и посадить в тюрьму строгого режима, за разжигание межвидового конфликта. А еще ввести санкции против людей эксплуатирующих труд машин!
  • 0
    Да он гений, кстати не из Сколково случайно? Уверен, только там могли придумать робота, тыкающего иголкой в палец...
  • 1
    законы азимова плохо тупа
    их проблемно втолковать пеку
    да и у человека есть некоторые подобные законы в голове но придумывает такие обстоятельства чтоб их обойти.
    коли не охота чтоб пека колол вас в палец нужен специальный датчик пальца дизайн и механизмы не не позволяющие причинять нежелательное как у любых опасных инструментов.
  • 0
    s1ash
    "выбрать между человеком и человеком"
    Машина выберет тот вариант где процент вероятности больше, если она исправна конечно.
  • 0
    Ksardex
    Робот не может иметь никаких "прав" все его действия запрограмированны.
  • 0
    Дебилоид
  • 0
    По моему он просто запрограммировал в роботе "машинный шанс" атаковать 50 на 50. И теперь пытается внушить всем что роботы сверх опасны. Кто-нибудь вообще сумел то на самом деле сделать программу, способную по настоящему учиться, а не повторять новый порядок действий? Я уже молчу про то, чтобы воссоздать в программе логическую систему, аналогичную человеческой - "чтобы робот сам решал атаковать или нет".
B
i
u
Спойлер