Google сформулировала пять проблем робототехники

Специалисты компаний Google и OpenAI совместно с учеными из Калифорнийского университета в Беркли и Стэнфордского университета назвали пять основных проблем, которые могут возникнуть при разработке искусственного интеллекта. В данном случае речь идет не о потенциальной угрозе человечеству со стороны машин, а о том, чтобы роботы эффективно выполняли свои задачи.

Исследователи выделяют следующие проблемы, которые следует учесть разработчикам ИИ:

  • избегание негативных побочных эффектов (к примеру, робот может что-нибудь сломать, чтобы быстрее выполнить свою работу);
  • мошенничество (робот-уборщик может прикрыть мусор вместо того, чтобы убрать его);
  • масштабируемость надзора (робот не должен злоупотреблять вниманием человека, который оценивает результаты его работы);
  • безопасность (робот может экспериментировать в ходе своей работы, но не должен выполнять заведомо опасных действий);
  • устойчивость к новым видам деятельности (робот не должен слепо использовать накопленный ранее опыт при изменении условий работы).

Исследователи отметили, что в дальнейшем разработчики ИИ могут столкнуться и с другими проблемами, о которых сейчас никто даже не подозревает.

Нравится25
Комментарии (13)
  • 10
    1. избегание негативных побочных эффектов (к примеру, робот может что-нибудь сломать, чтобы быстрее выполнить свою работу);
    2. мошенничество (робот-уборщик может прикрыть мусор вместо того, чтобы убрать его);

    Кхм, вот это действительно пугает.
  • 4
    А может робот нацист лучше?
  • 5
    В своё время боги, при создании человека, тоже озадачивались такими проблемами.
    Создали заповеди (программы), а толку никакого. До сих пор пытаются модифицировать надёжность человека.
    Посмотрим что получится на низшем уровне - в робототехнике.
  • 4
    что типа робот настолько хитер что может додуматься смести мусор под ковер?
  • 1
    Тут не на что смотреть...
  • 3
    Чёт мне от этого страшно!!!!

    избегание негативных побочных эффектов (к примеру, робот может что-нибудь сломать, чтобы быстрее выполнить свою работу);
    •мошенничество (робот-уборщик может прикрыть мусор вместо того, чтобы убрать его);
  • 4
    3 закона робототехники:
    1. Робот не может причинить вред людям.
    2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
    3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
  • 1
    Avatar predator
    0 закон робототехника: Робот не может нанести вред человечеству или своим бездействием допустить, чтобы человечеству был нанесён вред.
  • 1
    MunchkiN 616
    Вот это и есть признак интеллекта. Тупая бездумная машина не может схитрить, а если "научить" ее думать сможет.
  • 0
    MunchkiN 616, имхо это скорее способ оптимизации. Робот может посчитать, что так наименее энергозатратно, в то же время мусора как бы и нет. Собственно, ловлю себя на подобных измышлениях при желании "оптимизировать" свою деятельность =)
  • 1
    gmh4589
    Dr_Drift_RU
    на самом деле тут скорее наверно о другом. например если стоит ваза например - а робот не может из-за нее добраться до пылищи он может опрокинуть ее и разбить от усердия. и получить тапкам по щам.
    касательно фейковой работы - может уда то что-то замести где он этого не видит. а если он учится он может понять если делать так то мусор сам собой исчезает. мишен коплекшин.
    а вовсе речь не идет об умысле или долгосрочном планировании с целью меньше расходовать какие-то свои резервы итп.
  • 1
    MunchkiN 616, согласен, как вариант. Как с законами об робототехнике. Можно интерпретировать долго и разнообразно, пока нет четких рамок понятия каждого слова.
  • 1
    мошенничество (робот-уборщик может прикрыть мусор вместо того, чтобы убрать его);

    Так может сделать только человек и то которому лет 10 .
B
i
u
Спойлер