Книга еврейской мудрости

Ты знаешь, что существует мир, только мир не знает, что существуешь ты.

Поговорка на идиш

Юдковски, Елиезер - Биография

Элие́зер Шло́мо Юдко́вски (Eliezer S. Yudkowsky, 11 сентября 1979) — американский специалист по искусственному интеллекту, исследующий проблемы технологической сингулярности и выступающий за создание Дружественного ИИ.

Содержание

Научные интересы

Он является сооснователем и научным сотрудником Института Сингулярности по созданию Искусственного Интеллекта Singularity Institute for Artificial Intelligence (SIAI). Он — автор книги «Создание дружественного ИИ» («Creating Friendly AI» 2001), статей «Уровни организации универсального интеллекта» («Levels of Organization in General Intelligence» , 2002), «Когерентная экстраполированная воля» («Coherent Extrapolated Volition» , 2004), и «Вневременная теория принятия решений» («Timeless Decision Theory» , 2010). Его последними научными публикациями являются две статьи в сборнике «Риски глобальной катастрофы» (2008) под редакцией Ника Бострома, а именно «Искусственный интеллект как позитивный и негативный фактор глобального риска» и «Когнитивные искажения в оценке глобальных рисков». Юдковский не обучался в ВУЗах и является автодидактом без формального образования в области ИИ.

Юдковски исследует те конструкции ИИ, которые способны к самопониманию, самомодификации и рекурсивному самоулучшению (Seed AI), а также такие архитектуры ИИ, которые будут обладать стабильной и позитивной структурой мотивации (Дружественный_искусственный_интеллект). Помимо своей исследовательской работы, Юдковски известен свои объяснениями сложных моделей на неакадемическом языке, доступном широкому кругу читателей, например, см. его статью «Интуитивное объяснение теоремы Байса» «An Intuitive Explanation of Bayes' Theorem».

Юдковски был, вместе с Робином Хансоном, одним из главных авторов блога Overcoming Bias (преодоление предубеждений). В начале 2009 года он основал участвовал в организации блога Less Wrong (менее неправ), нацеленного на оттачивание человеческой рациональности. После этого Overcoming Bias стал личным блогом Хансона. Материал, представленный на этих блогах, был организован в виде цепочек постов, которые смогли привлечь тысячи читателей — см. например, цепочку «теория развлечений» [1].

Он является автором нескольких научно-фантастических рассказов, в которых он иллюстрирует некоторые темы, связанные с когнитивной наукой и рациональностью.

Юдковски — один из ведущих западных трансгуманистов. Он смог привлечь внимание тысяч читателей своими принципиально новыми идеями. В частности, это его статьи о когнитивных искажениях в оценке глобальных рисков, которые открыли новый подход к этой проблеме. Многие ожидают, что Юдковски в своём институте сможет создать тот ИИ, который и приведёт человечество к позитивной сингулярности. Юдковски принадлежит идея о 5 уровнях шока будущего. Кроме того, он поставил эксперимент с ИИ в чёрном ящике (AI box experiment), в котором показал, что ИИ может уговорить человека выпустить этот ИИ из чёрного ящика, используя только текстовый канал коммуникации.[2]

  • Our Molecular Future: How Nanotechnology, Robotics, Genetics and Artificial Intelligence Will Transform Our World by Douglas Mulhall, 2002, p. 321.
  • The Spike: How Our Lives Are Being Transformed By Rapidly Advancing Technologies by Damien Broderick, 2001, pp. 236, 265—272, 289, 321, 324, 326, 337—339, 345, 353, 370.

Примечания

Статьи на русском

Ссылки







В статье упоминаются люди:   Юдковски, Елиезер

Эта информация опубликована в соответствии с GNU Free Documentation License (лицензия свободной документации GNU).
Вы должны зайти на сайт под своим именем для того, чтобы иметь возможность редактировать эту статью

Обсуждения

Пожалуйста войдите / зарегистрируйтесь, чтобы оставить комментарий

Добро пожаловать в JewAge!
Узнайте о происхождении своей семьи