Дружественный искусственный интеллект
В этой статье недостаточно критики, так как необходимо освещение с различных точек зрения. |
Стиль этой статьи неэнциклопедичен или нарушает нормы литературного русского языка. |
Дружественный искусственный интеллект (Дружественный ИИ, ДИИ — англ. Friendly Artificial Intelligence, Friendly AI, FAI) — концепция философии ИИ, гипотетический тип искусственного интеллекта, не оказывающий негативного влияния на человеческую цивилизацию. Многие концепции ДИИ включают утверждение о том, что он не только не будет приносить вреда человечеству, но и будет оказывать материально-информационную поддержку людям, вплоть до полного обеспечения желаний и потребностей каждого отдельно взятого человека. «Дружественный» в данном контексте является техническим термином, который не означает, что ИИ обязательно будет испытывать к человечеству чувства привязанности и близости.
Продвижение и поддержка
[править | править код]Продвижение Дружественного ИИ является одной из основных задач Singularity Institute for Artificial Intelligence, равно как и получение финансирования этого проекта и в конечном счёте создание «зародыша ИИ», в систему мотивации которого будет изначально встроена забота о человечестве. Несколько известных футурологов высказались в поддержку теории Дружественного ИИ, включая писателя и изобретателя Рея Курцвейла, специалиста по продлению жизни Обри ди Грея и сооснователя World Transhumanist Association Ника Бострома.
11 декабря 2015 года Илон Маск, Сэм Олтмен и другие основали компанию OpenAI, целью которой является способствование созданию открытого ДИИ.
Критика
[править | править код]Наиболее заметным критиком теории Дружественного ИИ является Билл Хиббард, автор книги «Сверхинтеллектуальные машины», который считает эту теорию неполной. Хиббард пишет, что для создания ДИИ требуется большее политическое обсуждение вопросов создания ИИ и ИИ-морали. Он также полагает, что первый ИИ может быть создан только мощными частными корпорациями (что Юдковский считает ложным), и эти транснациональные корпорации не будут иметь никаких побуждений реализовать дружественность. Критикуя рекомендации SIAI по созданию ДИИ, он предложил архитектуру целей для ИИ, в которой человеческое счастье определяется через человеческое поведение, выражающее счастье, в частности, выражение улыбки на лице. Юдковский ответил на эту критику, сказав, что такая функция полезности скорее была бы удовлетворена, если бы вся Солнечная Система была заполнена микроскопическими улыбающимися манекенами, чем благодаря реальному счастью людей[1].
См. также
[править | править код]- en:Seed AI — теория, связанная с ДИИ
- Трансгуманизм
- Технологическая сингулярность
- Проблема контроля искусственного интеллекта
Примечания
[править | править код]- ↑ Eliezer Yudkowsky (2003-05-29). "Re: SIAI's flawed friendliness analysis". Shock Level 4 (Mailing list). Архивировано 13 декабря 2009. Дата обращения: 5 августа 2009.
Литература
[править | править код]- Юдковски, Э. Искусственный интеллект как позитивный и негативный фактор глобального риска.. Вышла в книге «Риски глобальной катастрофы», Оксфорд, 2008.
Ссылки
[править | править код]- Ethical Issues in Advanced Artificial Intelligence by Nick Bostrom
- What is Friendly AI? — A brief explanation of Friendly AI by the Singularity Institute.
- SIAI Guidelines on Friendly AI — The Singularity Institute’s Official Guidelines
- Creating Friendly AI — A near book-length explanation from the SIAI
- Critique of the SIAI Guidelines on Friendly AI — by Bill Hibbard
- Commentary on SIAI’s Guidelines on Friendly AI — by Peter Voss.
- Respectful AI Project Page by Tim Freeman