Loading

Исследователи разрабатывают способы контроля искусственного интеллекта

Многие философы и технологические предприниматели выражают мнение, что неконтролируемое распространение технологии искусственного интеллекта может привести к безудержной активности за пределами человеческого контроля.

По этой причине некоторые исследователи считают, что важно разработать системы прерывания программы ИИ, а также обеспечить невозможность для ИИ предотвратить эти перерывы.

Исследование, проведенное в 2014 году принадлежащей Google лабораторией AI Deep Mind и Оксфордского университета, было направлено на создание контроля над программами искусственного интеллекта. Другими словами, создавалась «большая красная кнопка», чтобы программное обеспечение оставалось под контролем.

Научно-исследовательский институт ИИ опубликовал научную статью о том, что технологический объект (например, робот) может предотвратить или изменить отключение ИИ. Исследователи предполагают, что это может быть сделано путем манипулирования системами награды, которые робот будет использовать для самообучения.

comments powered by HyperComments