Эксперты предупреждают о необходимости принятия мер предосторожности по мере развития индустрии цифрового загробного мира
Кэтрин Хьюлик
Когда вы скучаете по умершему близкому человеку, вы можете посмотреть на старые фотографии или прослушать старые голосовые сообщения. Теперь, благодаря технологии искусственного интеллекта, вы можете пообщаться с виртуальным ботом, который выглядит и звучит точно так же, как он.
Компании Silicon Intelligence и Super Brain уже предлагают такую услугу. Обе компании используют генеративный искусственный интеллект, в том числе большие языковые модели, подобные той, что используется в ChatGPT, для анализа фрагментов текста, фотографий, аудиозаписей, видео и других данных. Они используют эту информацию для создания цифровых «призраков» умерших, которые навещают живых.
Называемые griefbots, deadbots или re-creation services, эти цифровые копии умерших «создают иллюзию, что умерший человек все еще жив и может взаимодействовать с миром, как будто ничего не произошло, как будто смерти не было», — говорит Катажина Новачик-Басиньска, исследователь из Центра Леверхульма по изучению будущего интеллекта при Кембриджском университете, которая изучает, как технологии формируют у людей опыт переживания смерти, потери и скорби.
Она и ее коллега Томаш Голланек, специалист по технологической этике из того же университета, недавно исследовали риски технологий, позволяющих получить «цифровое бессмертие», в статье, опубликованной 9 мая в журнале Philosophy & Technology. Может ли технология искусственного интеллекта опережать соблюдение человеческого достоинства? Чтобы разобраться в этом вопросе, журнал Science News побеседовал с Новачик-Басиньской. Это интервью было отредактировано для большей ясности.
— В 2013 году в телесериале «Черное зеркало» был показан леденящий душу эпизод о женщине, которая завела робота, имитирующего ее погибшего парня. Насколько реалистична эта история?
Новачик-Басиньска: Мы уже подошли к моменту, когда для общения не нужно тело. И определенно цифровое воскрешение, основанное на огромном количестве данных, вполне возможно уже сейчас.
За свою относительно короткую академическую карьеру я наблюдала значительный прогресс от момента, когда цифровые технологии бессмертия воспринимались как очень маргинальная ниша, до момента, когда у нас появился термин «цифровая индустрия загробной жизни». Для меня, как исследователя, это очень интересно. Для человека это может быть очень страшно и очень тревожно.
Мы используем образные сценарии и дизайнерскую фантастику в качестве метода исследования. Но мы не обращаемся к какому-то далекому будущему. Вместо этого мы рассуждаем о том, что технологически и социально возможно здесь и сейчас.
— В вашей статье представлены три воображаемых, но проблематичных сценария, которые могут возникнуть с этими мертвыми ботами. Какой из них лично вам кажется наиболее антиутопичным?
Новачик-Басиньска: [В одном из наших сценариев] мы представляем смертельно больную женщину, оставляющую горе-бота, чтобы помочь ее восьмилетнему сыну справиться с горем. Мы используем этот пример, потому что считаем, что подвергать детей воздействию этой технологии может быть очень рискованно.
Я думаю, что мы могли бы пойти еще дальше и использовать это… в ближайшем будущем, чтобы даже скрыть от ребенка факт смерти родителя или другого значимого родственника. И на данный момент мы очень, очень мало знаем о том, как эти технологии повлияют на детей.
Мы утверждаем, что если мы не можем доказать, что эта технология не будет вредной, мы должны принять все возможные меры для защиты самых ранимых. И в данном случае это означает ограничение доступа к этим технологиям по возрасту.
— Какие еще меры предосторожности важны?
Новачик-Басиньска: Мы должны убедиться, что пользователь осознает… что он взаимодействует с искусственным интеллектом. [Технология может] моделировать языковые модели и черты личности на основе обработки огромного количества персональных данных. Но это определенно не сознательный субъект (SN: 2/28/24). Мы также выступаем за разработку чутких процедур вывода из эксплуатации или удаления мертвых ботов. И мы также подчеркиваем важность согласия.
— Не могли бы вы описать воображаемый вами сценарий, в котором рассматривается вопрос согласия для пользователя бота?
Новачик-Басиньска: Мы представляем пожилого человека, который тайно — это очень важное слово, тайно — посвятил мертвого бота себе, заплатив за 20-летнюю подписку, надеясь, что это утешит его взрослых детей. А теперь представьте, что после похорон дети получают кучу электронных писем, уведомлений или обновлений от службы воссоздания, вместе с приглашением пообщаться с ботом их умершего отца.
[У детей должно быть право решать, хотят ли они пройти через процесс скорби таким образом или нет. Некоторых людей это может успокоить и помочь, а других — нет.
— Вы также утверждаете, что важно защищать человеческое достоинство даже после смерти. В вашем воображаемом сценарии, касающемся этого вопроса, взрослая женщина использует бесплатный сервис для создания дэдбота своей давно умершей бабушки. Что происходит дальше?
Новачик-Басиньска: Она спрашивает у мертвого бота рецепт домашних спагетти карбонара, которые она любила готовить вместе с бабушкой. Но вместо рецепта она получает рекомендацию заказать эту еду в популярной службе доставки. Мы обеспокоены тем, что горе-боты могут стать новым пространством для очень подлого продакт-плейсмента, посягающего на достоинство умерших и неуважительно относящегося к их памяти.
— В разных культурах по-разному относятся к смерти. Как это можно учесть в защитных мерах?
Новачик-Басиньска: Мы прекрасно понимаем, что не существует универсальных этических рамок, которые можно было бы использовать в данном случае. Темы смерти, горя и бессмертия очень чувствительны к культурным особенностям. И решения, которые могут быть с энтузиазмом приняты в одном культурном контексте, могут быть полностью отвергнуты в другом. В этом году я начала новый исследовательский проект: я собираюсь изучить разное восприятие симуляции смерти с помощью ИИ в трех разных восточных странах, включая Польшу, Индию и, возможно, Китай.
— Почему именно сейчас настало время задуматься об этом?
Новачик-Басиньска: Когда мы начали работать над этой статьей год назад, мы были немного обеспокоены тем, не слишком ли это похоже на научную фантастику. Сейчас на дворе 2024 год. И с появлением больших языковых моделей, особенно ChatGPT, эти технологии стали более доступными. Вот почему нам так нужны правила и меры предосторожности.
Сегодня поставщики услуг по воссозданию образов принимают совершенно произвольные решения о том, что допустимо, а что нет. И это немного рискованно — позволять коммерческим структурам решать, как должна быть организована наша цифровая смерть и цифровое бессмертие. Люди, которые решают использовать цифровые технологии в ситуациях, связанных с концом жизни, уже находятся в очень и очень сложном периоде своей жизни. Мы не должны усложнять их жизнь безответственным проектированием технологий.
Источник: наука-техника.рф