Сценарии возможного совместного будущего с искусственным интеллектом
Аннотация
В статье реконструируются проблемы осмысления современного технологического прогресса и картины мира в целом на примере подхода шведского философа Ника Бострома к проблеме сосуществования искусственного интеллекта и человека. С каждым днем машины становятся все более талантливыми в областях, в которых от них не ожидался активный подъем: написание текстов, создание изображений, видео и музыки. Кроме экономической проблемы развития столь мощного инструмента в ситуации рыночной экономики, ученые и философы все чаще говорят о мрачных сценариях будущего с выходящим из-под контроля искусственным интеллектом. В первую очередь Бостром пытается передать свои опасения в отношении создания сверхразумных машин. Их мотивы и цели будут неизвестны, но Бостром предполагает, что независимо от конечной цели разумного актора, в процессе ее достижения он может, выполняя свои промежуточные задачи, уничтожить человечество. При этом Бостром рассматривает различные сценарии совместной жизни и формулирует способы передачи машинам человеческих ценностей. В статье рассматриваются как вероятные, так и неочевидные мотивы искусственного интеллекта, которые могут послужить причиной пагубного воздействия на человечество. Бостром предлагает нам несколько вероятных сценариев взрывного, медленного или умеренного развития искусственного интеллекта, считая самым вероятным сценарий неуправляемого взлета в сингулярность, который приведет нас к уничтожению. Для продолжения безопасной жизни совместно со сверхразумными машинами человечеству предлагается остановить исследования до тех пор, пока государства не будут готовы к сотрудничеству, а ученые и философы совместными усилиями не смогут найти решение проблемы создания безопасного искусственного интеллекта.
Ключевые слова
Искусственный интеллект, этика, технологическая сингулярность, прогресс, сверхразум, Ник Бостром, Элиезер Юдковский
Об авторах
Татьяна Сергеева
Аспирант, кафедра истории зарубежной философии, философский факультет, Московский государственный университет имени М.В. Ломоносова (МГУ)
Библиографические ссылки
Бостром Н. Искусственный интеллект. Этапы. Угрозы. Стратегии. М.: Манн, Иванов и Фербер, 2016.
Бостром Н. Прими красную таблетку: Наука, философия и религия в «Матрице». М.: Ультра. Культура, 2003.
Кречетова А. Под присмотром: во сколько обойдется система распознавания лиц на улицах Москвы. URL: https://www.forbes.ru/tehnologii/350843-pod-prismotrom-vo-skolko-oboydetsya-sistema-raspoznavaniya-lic-na-ulicah-moskvy (дата обращения: 12.05.2024).
Сэм Альтман возвращается в OpenAI после скандального увольнения. URL: https://www.bbc.com/russian/articles/c6p6wyyyy17o (дата обращения: 12.05.2024).
Bartneck C., Belpaeme T., Eyssel F., Kanda T., Keijsers M., Šabanović S. Can we control it? Autonomous robots threaten human identity, uniqueness, safety, and resources // Human-Robot Interaction – An Introduction. Cambridge: Cambridge University Press, 2020.
Bostrom N. Existential Risks. Analyzing Human Extinction Scenarios and Related Hazards // Journal of Evolution and Technology, 2002, Vol. 9, № 1.
Bostrom N. Strategic Implications of Openness in AI Development // Global Policy, 2017, Vol. 8, № 2. PP. 135–148.
Bostrom N. The Vulnerable World Hypothesis // Global Policy, 2019, Vol. 10, № 4. PP. 455–476.
Yudkowsky E. Pausing AI Developments Isn’t Enough. We Need to Shut it All Down. URL: https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/ (Дата обращения: 15.03.2024).
David E. FTC investigating Microsoft, Amazon, and Google investments into OpenAI and Anthropic. URL: https://www.theverge.com/2024/1/25/24050693/ftc-investigating-microsoft-amazon-google-investments-openai-anthropic (дата обращения: 12.05.2024).
Future of Humanity Institute. URL: https://www.fhi.ox.ac.uk/the-team/">https://www.fhi.ox.ac.uk/the-team/ (Дата обращения: 11.03.2024).
Whitby B. Sometimes it’s hard to be a robot: A call for action on the ethics of abusing artificial agents // Interacting with Computers, 2008, vol. 20, № 3.