Ференц Патш SJ

В статье затрагивается актуальная тема влияния так называемого «генеративного искусственного интеллекта» на нынешнюю жизнь и предсказуемое будущее. Сначала вкратце представлены достоинства и опасности, присущие новой технологии, затем автор концентрируется на недавнем изобретении ChatGPT. Стараясь выработать реалистичную альтернативу между двумя опасными крайностями — отчаянным алармизмом и доверчивой неосознанностью — статья подчеркивает необходимость дать ответственный и проактивный ответ на нынешние перемены. В заключительной части подчеркивается необходимость срочно регламентировать на международном уровне эту область информатики, учитывая ее экспоненциальное развитие. Автор — профессор Фундаментальной теологии в Папском Григорианском университете.

***

В будущем столетии нашу эпоху люди, по-видимому, будут вспоминать как эру зарождения[1] так называемого «генеративного искусственного интеллекта»[2]. Хотя сейчас невозможно исчерпывающе оценить актуальные процессы (по причине отсутствия исторической дистанции), все сигнализирует о том, что мы переживаем начальную фазу революции в области информатики и технологии, запустившей «интеллект» машин. Многие задаются вопросом: что в этом плане нам готовит будущее? Мы были вынуждены освоить новые термины, например «алгоритм», «машинное обучение» (machine learning) или совсем недавно понятие «большие языковые модели» (large language models), но это только начало. Новые технологии уже стремительно трансформируют нашу жизнь и, по словам экспертов, у них в запасе другие невероятные возможности.

Естественно, все чаще говорят об опасностях, некоторые из них, к сожалению, стали хорошо знакомы благодаря социальным сетям: зависимость, дезинформация, психическое здоровье, поляризация общества, цензура и т. п.[3] Кто прав: те, кто с энтузиазмом принимает недавние перемены, или те, кто распространяет апокалиптические и антиутопические прогнозы? В столь широкой гамме мнений трудно сориентироваться, однако в статье мы постараемся, несмотря на всю сложность задачи, предоставить читателю некоторые ориентиры и помочь определиться. Сейчас, когда мания ChatGPT, о которой речь пойдет ниже, немного утихла[4], можно более уравновешенно поразмышлять над этой vexata quaestio (широко обсуждаемая проблемаПрим. пер.).

Технология «смарт» как обоюдоострое оружие

Для лучшего понимания «генеративного искусственного интеллекта» начнем издалека. Итак, проведем мыслительный эксперимент. Что бы мы подумали, если путешественник во времени, вернувшись из будущего в семидесятые годы, сделал такой прогноз: скоро в нашем распоряжении окажется новоизобретенное устройство, позволяющее огромной части человечества общаться быстро и эффективно, независимо от физического расстояния, а также объединять людей?[5] С этим изобретением нам станут доступны все знания человечества и мы сможем практически мгновенно получать огромный объем информации (данные, музыка, фильмы, большинство книг, газет и опубликованных статей и т. п.). Станет возможно перевести любой текст на любой язык за несколько секунд. И сегодня в распоряжении каждого из нас есть такой инструмент. Разработчики — и честные писатели-фантасты — нередко признаются, что мечтали о чем-то подобном, но думали, что для получения подобного результата потребуется намного больше времени.

Действительно, практически все элементы искусственного интеллекта мы знаем уже 40–50 лет, тем не менее сейчас мы знакомимся с новейшей технологией, невероятной полвека назад: те же самые алгоритмы смогли функционировать на машинах в 10 миллионов раз быстрее. Мы только начинаем видеть влияние этого нового инструмента на образование (развитие детей, научные исследования, обмен ценностями), культуру (социальная журналистика, каналы коммуникации), политику (демократический дискурс, выборы), экономику (маркетинг, ВВП) и не в последнюю очередь на нашу духовную жизнь.

Все ли успехи цифровой технологии нам на благо? К сожалению, как становится все более очевидно, это не так; безусловно, есть и отрицательная сторона. Если, например, в семидесятые годы упомянутый выше путешественник во времени сказал бы нам, что это волшебное устройство также станет причиной трудностей в отношениях с нашими детьми, будет отвлекать их; что некоторые простые приложения — называющиеся «социальными сетями» — вызовут острый эмоциональный кризис у подростков, что взрослые столкнутся с опасностью дефицита внимания, стрессом и нарушением сна[6], приняли бы мы его с таким же энтузиазмом? Да, мы усовершенствовали концепцию divertissement Паскаля, но, по мнению ученых, перемены, которые мы уже вызвали, грозят лишить нас смысла жизни и способности наслаждаться ею[7], не говоря об отношениях с Богом, молитве и созерцании[8].

А если бы наш путешественник во времени предупредил нас и о том, что новые технологии сделают нас уязвимыми перед манипуляцией и незаконным сбором данных (поскольку таинственное устройство знает номера наших банковских карт, читает нашу электронную почту, сохраняет треки наших географических координат и даже подсчитывает количество шагов за день, если мы его об этом просим)? Кто бы вообразил, что самое могущественное изобретение нашего времени — социальные сети — заманят нас в ловушку коммуникационного «пузыря» типа эхо камеры (echo chamber), где мы слышим лишь того, кто разделяет наши собственные мнения, беспрецедентно усугубляя тем самым социальную раздробленность? Устройство, которое мы называем смартфоном (smartphone), имело очень двойственный эффект: оно связало нас со всемирной информационной сетью, в которой мы, похоже, запутались. Благодаря его использованию человечество оказалось глобализованным, как никогда в истории, но при этом мы одиноки. Это устройство пробудило худших демонов нашей души (порнография, насилие), от него так трудно оторваться, что началась самая настоящая эпидемия зависимости[9]. По-прежнему хочется восхвалять прогресс информатики?

Но это еще не все. Разные сигналы указывают на то, что мы лишь в начале истории трансформации. Социальные сети, ответственные за большинство перечисленных выше проблем, функционировали как достаточно примитивные инструменты по сравнению с новыми. По сути их магия заключалась в том, что поисковые системы были запрограммированы рекомендовать новостные статьи либо видео на YouTube с учетом интересов и предыдущих переходов пользователей (регистрируемых даже без разрешения последних). Но уже такие примитивные методы дали им невероятную власть: они не только удерживали нас перед экранами, воруя у нас время для сна[10], но и манипулировали нашими мнениями, накаляя наши политические рассуждения, подрывая психическое здоровье и дестабилизируя демократические общества[11]. До недавнего времени мы имели дело только с информационным контентом, собранным человеком; однако в наши дни произошла серьезная перемена.

«The next big thing»

22 ноября 2022 года стало доступно новое технологическое изобретение, которому в будущем суждено произвести небывалый фурор. Калифорнийский стартап OpenAI дал жизнь «большой языковой модели», питаемой «искусственным интеллектом», названной ChatGPT. Так началась новая глава в истории технологии и, по мнению некоторых, в истории человечества. За пять дней миллион человек установили приложение, а за два месяца количество пользователей превысило 100 миллионов[12]. Но что же представляет из себя этот чат-бот (chatbot), день за днем выходивший из полной неизвестности и ставший потенциально главным творцом будущего мира?

ChatGPT — пример так называемого «генеративного искусственного интеллекта», то есть этот чат-бот умеет генерировать контент, похожий на мысли человека, просто обучаясь на огромном объеме текстовой информации, изображений и звуков в Интернете. Впервые в истории нашего вида стало возможно напрямую взаимодействовать в качестве пользователя — пока только письменно — с могущественным небиологическим (неорганическим, построенном на кремнии) «интеллектом». Мы можем вести с ним диалог и болтать, и он сразу же отвечает на наши вопросы. К тому же сложность заданий, доступных чат-боту для выполнения, вызвала удивление у большинства экспертов. Освоив человеческую речь и ловко ее используя, он способен предоставлять информацию на любом языке и по любой теме, обсуждаемой в Интернете. Самая удивительная и инновационная характеристика приложения — «творческий подход», то есть оно может генерировать собственные тексты, изображения и видео. Именно поэтому разработка OpenAI оказалась беспрецедентно успешной.

К тому же ChatGPT — не последний этап развития, а лишь один из первых шагов. После его появления новые признаки развития проявлялись почти еженедельно: Google запустил собственный чат-бот Bard для совершенствования своей поисковой системы и инвестировал 300 миллионов долларов в Anthropic; уже доступен GPT-4, еще более мощный чат-бот, чем предыдущая модель; Google запустил мощную языковую модель PaLM 2; Baidu, известная как «Китайский Google», представила чат-бот «Claud»[13] и т. д. Говоря вкратце, общественным достоянием стал опосредованно человеческий «интеллект», способный писать тексты (в том числе сочинения и дипломные работы), переводить их, рисовать изображения, сочинять музыку и даже создавать компьютерные программы удивительного качества, причем этот «интеллект» непрерывно эволюционирует. Хорошая ли это новость?

Критический и проактивный реализм

Для некоторых все это не шаг вперед, а, скорее, шаг назад в истории человеческой цивилизации. Они нас предупреждают, что прежде, чем поддаваться некритической эйфории, следует заметить, что ChatGPT работает несовершенно: например, порой «вводит в заблуждение», то есть «придумывает», выдает неверную информацию, и проблема не представляется окончательно разрешимой. Кроме того, с пугающей легкостью можно использовать новое изобретение для мошенничества, добиваясь, например, впечатляющего качества поддельных изображений, звуков и видео (deepfaking). Это уже привлекло внимание криминального мира: Федеральная торговая комиссия США (Federal Trade Commission) сообщила, что в прошлом году в Соединенных Штатах с помощью «искусственного интеллекта» был нанесен ущерб в размере 11 миллионов долларов. Мошенники имитировали голос человека либо создавали его движущийся аватар, вводя тем самым в заблуждение ничего не подозревающих родственников[14]. Известным в Италии стало происшествие с 83-летней женщиной, Лаурой Эфрикян, бывшей супругой певца Джанни Моранди, обманутой преступниками на солидную сумму, которым с помощью «искусственного интеллекта» удалось сымитировать голос одного из ее внуков.

То есть в будущем мы, лично не встречая кого-то, не сможем быть уверенными в его личности? Видимо, именно так. Но самая большая угроза, по-видимому, не «искусственный интеллект», помогающий в договоренном мошенничестве и в уклонении от уплаты налогов. Скорее, главная опасность в «искусственном интеллекте», имитирующем близкие отношения с реальными людьми («друзья», «подруги», в том числе интимные, а на самом деле за ними стоят лишенные способности к состраданию роботы, делающие вид, что понимают нас, тем самым фальсифицируя настоящие человеческие отношения)[15]. По мнению американского философа Дэниела Деннетта, это отнюдь не шутка, а самая настоящая «угроза для нашей цивилизации»[16]. В связи с этим вновь становится актуальным древний вопрос: что значит быть человеком?

Мнения экспертов — философов, богословов, историков, адвокатов, экономистов и т. д. — по этому вопросу разделились, как и в осмыслении того, что на самом деле происходит с введением или, лучше сказать, с самым настоящем вторжением «искусственного интеллекта» в нашу культуру. Меньшинство стремится приуменьшить влияние происходящего, утверждая, что речь идет лишь о еще одном кратковременном «чуде»: человечество пережило намного более серьезные травмы за 200 000 лет своей истории. Другие же следуют в диаметрально противоположном направлении, сравнивая распространение «генеративного искусственного интеллекта» не только с изобретением огня, колеса или письменности, но с новым началом эволюции — теперь неорганической, — в чем видят предвестие неизбежного апокалипсиса в будущем (невозможность получить образование, массовая безработица, цифровой феодализм вплоть до истребления человечества). Отдадим должное Сэму Альтману, делегированному администратору компании-матери ChatGPT, OpenAI, который, когда ChatGPT совершил свой публичный дебют, предвидел, что важность их творения «превзойдет аграрную революцию, промышленную революцию и революцию Интернета вместе взятые»[17]. Однако все это не может помешать нам действовать ответственно.

Самую уравновешенную точку зрения между ложной альтернативой отчаявшегося алармизма и доверчивой несознательности предлагает информированный, ответственный и проактивный реализм. Хотя будущее в принципе предугадать нельзя, особенно в этом случае, когда нет аналогичных примеров для понимания происходящего, некоторые прогнозы возможно сформулировать ответственно. Прежде всего, очевидно, что мы оказались перед лицом поистине исторической перемены и должны к ней подготовиться. «Искусственный интеллект» необязательно разрушит образ нашего мышления и жизни, но, безусловно, через несколько десятилетий изменит его на беспрецедентном уровне: перевернет систему образования и мир науки, подвергнет сомнению наши представления о фундаментальных концепциях интеллектуального труда (творчество, интеллектуальная собственность и авторские права), вынудит нас освоить новый подход к педагогике (от начальной школы до университетов), потребует реорганизовать здравоохранение и изменит наше видение человечества; трансформирует экономику, в первую очередь — рынок труда, бросив тем самым вызов экономистам и политикам; изменит политику, вызвав кризис демократии, войну, создавая вооружение на основе «искусственного интеллекта»; наконец, самым радикальным образом повлияет на всю человеческую мысль, то есть на понимание кто мы, что считаем «реальным» и «истинным». Адекватный ответ на все эти вызовы — не отчаяние, не капитуляция, а мониторинг, осмысление и ответственное действие.

Четыре аргумента в пользу регламентации

Появление ChatGPT, как мы видели ранее, предполагает, что мы на заре новой эры. Эта эпоха будет характеризоваться стремительным развитием «искусственного интеллекта», с всеобъемлющими последствиями почти для всех аспектов общества. Нельзя не размышлять о том, как следует реагировать.

Конечно, в различении могло бы помочь водительство Учительства Церкви. Однако Церковь обычно не раздает поспешных указаний, а терпеливо ждет, пока не созреет хорошо взвешенное суждение. Безусловно, у такой позиции есть преимущества: это препятствие для необдуманных реакций и возможность действовать осмотрительно. Но в случае «искусственного интеллекта» у нас есть законное право требовать, чтобы учительство Церкви действовало не в обычном ритме. Отреагировать нужно в кратчайшие сроки. События происходят молниеносно. Обычно годом изобретения Интернета считается 1983-й; Папский совет по средствам массовой коммуникации опубликовал документ Церковь и Интернет лишь в 2002 году. Социальные сети появились в 1997-м[18]; а Дикастерия по коммуникации опубликовала документ «На пути к полному присутствию» (Verso una piena presenza) лишь в 2023-м[19]. Папа Франциск стремится шагать в ногу со временем. Он посвятил свои размышления по случаю Всемирного дня средств массовой коммуникации (24 января 2024 года, в день памяти святого Франциска Сальского) теме «Искусственный интеллект и мудрость сердца»[20]. Текст послания на Всемирный день молитв о мире 1 января 2024 года был аналогично посвящен теме «Искусственный интеллект и мир»[21]. Это должно еще больше побудить нас осмыслить данную проблему.

1) Один из важнейших аспектов касается регламентации «генеративного искусственного интеллекта». Этого требуют, прежде всего, нынешние неотложные нравственные обстоятельства, например, в случае войны. Ряд экспертов, среди которых Одри Курт Кронин, директор Института безопасности и технологии Университета Карнеги — Меллона, уже годами говорит об этой опасности, настаивая на том, что «открытая технологическая инновация вооружает завтрашних террористов»[22]. Недавние события полностью подтвердили опасения профессионалов: в израильском конфликте ХАМАС использовал экономические, легко доступные, но очень современные технологии (социальные сети, дроны, сенсоры, «умные» реактивные снаряды), чтобы увеличить разрушительную способность и умножить число жертв террористических актов. Этот простой факт должен стать еще одним напоминанием тем, кто развивает новые технологии «генеративного искусственного интеллекта»: он приобретет власть умножать эффективность массового поражения (например, создавая новые смертоносные вирусы).

2) Против творчества в разрушении необходимы инновационные решения по защите человеческих существ. Хотя все основные протагонисты цифровой революции — от OpenAi до Google, не говоря о Майкрософт и Anthropic (теперь принадлежит группе Amazon) — заявляют, что осознают огромные риски, связанные с использованием таких технологий злоумышленниками, добровольных деклараций, по-видимому, недостаточно. Настолько, что именно «великие» не чувствуют себя ответственными! Того же Илона Маска, уполномоченного администратора мультинациональной автомобильной компании Тесла, собственника и президента мессенджера Х (бывший Твиттер), постоянно уличают в распространении ложных новостей. Поначалу он решительно снизил уровень системной верификации сетевого контента во имя абсолютной свободы слова; но затем задействовал экономические механизмы, поощряющие распространение ложных, но эффектных монтажных постановок, способных генерировать множество визуальных образов; наконец, недавно он призвал следить за новостями об обстановке в Израиле на двух интересных, как ему казалось, сайтах: речь идет об антисемитских ресурсах, обычно публикующих фейки. Когда ему указали на ошибки, он убрал приглашение, которое к тому моменту успели прочитать 11 из 160 миллионов его подписчиков (follower)[23].

Столь же вредоносна и неприемлема политика его конкурента, Марка Цукерберга, другого миллиардера, главы корпорации Мета (признана экстремистской и запрещена на территории РФ — Прим. ред.) (бывш. Фейсбук), который, дискутируя об «искусственном интеллекте» в Конгрессе, поддержал тезис о важности регламентации, при этом отрицая необходимость ограничить доступ. Может зародиться подозрение, что жажда власти затмевает глаза причастных лиц, мешает им увидеть, что безответственно вручать в руки потенциально опасных лиц столь могущественную власть. В прошлом подобные вопиюще ошибочные суждения раз и навсегда разбили мечту о возможной демократизации технологии, именно нам теперь суждено испытать на себе последствия этого. Однако столь важные решения нельзя доверять отдельным индивидам, даже если они в некоторой степени проинформированы в плане политики и этики. Во избежание худшего необходимы и демократическая прозрачность, и подотчетность (accountability) всех главных действующих лиц.

3) Естественно, принятие ответственности особенно затруднено в случае, когда речь идет о компаниях-мультимиллиардерах, например, об американском колоссе Google (YouTube ежедневно используют 1,3 миллиарда человек в среднем по 70 минут) или о китайском гиганте TikTok (уже почти информационный монополист у американской и европейской молодежи). За этими платформами социальных сетей скрываются в том числе алгоритмы на основе «искусственного интеллекта», разработанные лучшими в мире учеными в области поведения с целью удержать нас перед экраном. Не стоит удивляться, что сегодня мы утрачиваем способность сфокусировать внимание. В этих областях целью регламентации должно стать не отвлечение внимания любой ценой — это только способствует увеличению личного дохода некоторых при росте напряжения в обществе, — но, в первую очередь, информирование, укрепление и совершенствование (empowering) с помощью всех наших наилучших ресурсов. Прибегая к неологизму францисканца Паоло Бенанти, необходима «алгорэтика», то есть этика алгоритма[24].

4) Регламентация необходима не только для борьбы с войнами, изобретателями фейковых новостей (fake news) и безответственными операторами социальных сетей, но и для спасения (и совершенствования) существующей демократической политической системы. Способ вмешательства иностранных властей в выборы президента США в 2017 прекрасно известен. Однако менее известно, что во время выборов Парламента Словакии 30 сентября 2023 года, когда победил пророссийский популист Роберт Фицо, использовались намного более изощренные методы. Ложная кампания, поддержанная технологией deep fake, была направлена прежде всего против прогрессивного либерального кандидата Михала Шимечки. Можно счесть забавным, но речь идет о серьезной проблеме: пока Фейсбук распространял взрывной волной видео, в котором фальсифицированный Шимечка заявлял, что удвоит цену на пиво в случае победы, за 48 часов до открытия избирательных участков была распространена аудиозапись, где другой «Михал» утверждал о намерении купить голоса цыганского меньшинства[25].

Возможно ли, что с огромным прогрессом технологии мы больше не сможем верить увиденному своими глазами на экране? Возможно. Тем не менее необходимо сдерживание. В прошлом строго каралось изготовление контрафактной продукции, значит, сегодня заслуживает осуждения подделка человеческих существ[26]. И оно не попирает свободу слова, поскольку у ботов нет права на свободу самовыражения.

Хорошо, что «генеративный искусственный интеллект», как мы знаем, не сознателен и не разовьет самосознание (в отличие от нас, он не понимает, о чем говорит). Но это не означает, что он безобиден. Ему необходимо постоянное сдерживание, и это извечная наша этическая, богословская и духовная задача, можно сказать, долг человека.

***

ПРИМЕЧАНИЯ:

[1] Символическим событием стал запуск в декабре 2022 года сервиса ChatGPT. Конечно, у этой инициативы долгая история. Сейчас говорят по крайней мере о четырех основных моментах в информатике: 1) в 2010 году ИИ начал применяться для совершенствования поиска в сети Интернет; 2) с 2014 году коммерческий ИИ стал использоваться для помощи в поиске товаров (поисковики словно начали «читать мысли»); 3) в 2018 году появился воспринимающий ИИ, то есть техника стала видеть и распознавать объекты; 4) сейчас мы наблюдаем волну генеративного ИИ. Cfr J. Holmström, From AI to digital transformation: The AI readiness framework, in Business Horizons 65 (2022/3) 329–339; U. Pillai, Automation, productivity, and innovation in information technology, in Macroeconomic Dynamics 27 (2022/4) 879–905.

[2] Следует различать: «интеллект» машин — не то же самое, что разум человека. Тем не менее в статье мы будем использовать обычную терминологию, выделяя это различие кавычками. Cfr F. Bastiani, Faggin: «L’AI non avrà mai coscienza. ChatGPT? A differenza nostra non comprende ciò che dice», в StartUp Italia, 25 сентября 2023.

[3] Еще более детально: переизбыток информации, doomscrolling, культура инфлюэнсеров (influencer), сексуализация детей, фейковые новости (fake news), снижение внимания, deep fake, фабрики культа, оскорбления онлайн (online), крушение демократии и т. д. Cfr T. Harris, Beyond the AI dilemma, в youtube.com/watch?v=e5dQSzEuE9Q

[4] После беспрецедентного роста в июне 2023 года ChatGPT начал терять пользователей, трафик вебсайта впервые снизился на 10 % по сравнению с предыдущим месяцем. Cfr N. Tiku — G. De Vynck — W. Oremus, Big Tech was moving cautiously on AI. Then came ChatGPT, in The Washington Post (washingtonpost.com/technology/2023/07/07/chatgpt-users-decline-future-ai-openai), 3 февраля 2023. Тем не менее этот факт не препятствует «климатическому изменению» культуры, предвосхищаемой большими языковыми моделями (large language models).

[5] Телеграф, способный передавать электрические сигналы, был изобретен Сэмюэлем Финли Бризом Морзе, патент на него был получен еще в 1837 году, а уже в 1871 году Антонио Меуччи изобрел и сконструировал первый телефон. Тем не менее коммуникацию, ставшую возможной благодаря этим средствам связи, даже нельзя сравнивать с возможностями мобильной телефонии.

[6] На угрозу самого настоящего health care crisis у молодежи обращено внимание в J. Haidt, After Babel: Reclaiming Relationship in a Technological World, аудиокнига, 2022; Id., The Anxious Generation: How the Great Rewiring of Childhood Is Causing an Epidemic of Mental Illness, London, Penguin, 2019. См. также J. Cain, It’s Time to Confront Student Mental Health Issues Associated with Smartphones and Social Media, in American Journal of Pharmaceutical Education, 1 сентября 2018 (https://doi.org/10.5688/ajpe6862).

[7] Из множества работ на эту тему упомянем лишь T. W. Kim — A. Scheller-Wolf, «Technological unemployment, meaning in life, purpose of business, and the future of stakeholders», in Journal of Business Ethics, n. 160, 2019, 319–337  (https://doi.org/10.1007/s10551-019-04205-9).

[8] Cfr St. K. Spyker, Technology and Spirituality: How the Information Revolution Affects Our Spiritual Lives, Woodstock, VT, SkyLight Path Publishing, 2007. О положительных аспектах говорится редко: cfr F. Cavaiani, The Positive Power of Technology, in Human Development 43 (2023/2) 47–51.

[9] См. G. Cucci, Dipendenza sessuale online. La nuova forma di un’antica schiavitù, Àncora — La Civiltà Cattolica, Milano, 2015.

[10] В 2017 году Рид Гастингс, CEO «Нетфликс», заявил: «Сон — наш самый главный конкурент».

[11] Примечательно, что граждане США, хотя живут в самом передовом в плане информационных технологий обществе, до сих пор спорят, кто выиграл последние президентские выборы, действительно ли изменение климата представляет реальную угрозу и нужно ли вакцинироваться от новой коронавирусной инфекции (Covid-19). Сегодня доверие населения федеральному правительству находится на самой низкой за почти семь десятилетий опросов отметке. См. Pew Research Center, Public Trust in Government: 1958–2023, in pewresearch.org/politics/2023/09/19/public-trust-in-government-1958-2023.

[12] Следует заметить, что Facebook-Meta потребовалось четыре с половиной года для достижения такой цифры и даже TikTok на такой результат потратил целых девять месяцев. См. The battle for search, in The Economist, 9 февраля 2023, 7. ChatGPT заслужил пристальное внимание именно из-за стремительного распространения, приложению был присвоен самый высокий балл распространяемости.

[13] См. там же.

[14] См. M. Atleson, Chatbots, deepfakes, and voice clones: AI deception for sale, in ftc.gov/business-guidance/blog/2023/03/chatbots-deepfakes-voice-clones-ai-deception-sale/. Благодаря доступной сегодня технологии обучить ИИ подражать голосу любого человека можно за три секунды, например, обмануть родственников в реальном времени в ходе телефонного звонка.

[15] В одном видеоролике психолог и технолог МИТ Шерри Тёркл называет встречу с «медсестрами-роботами» (robot nurses) «самым печальным опытом» в собственной карьере: см. S. Turkle, Alone Together. Identity and Digital Culture (TEDxUIUC — Sherry Turkle — Alone Together — YouTube).

[16] См. H. Bray, «This is civilization-threatening»: Here’s why AI poses an existential risk, in The Boston Globe (Bostonglobe.com/business), 1 июня 2023. См. D. C. Dennett, From Bacteria to Bach and Back: The Evolution of Minds, New York, W. W. Norton & Company, 2017.

[17] См. S. Altman, «The Software Revolution» (16 февраля 2015).

[18] См. M. Jones, A Complete History of Social Media: A Timeline of the Invention of Online Networking, History of social media: The Invention of Online Networking, в historycooperative.org

[19] Cfr Dicastero per la Comunicazione, Verso una piena presenza. Riflessione pastorale sul coinvolgimento con i social media, 28 мая 2023. Папская Академия в защиту жизни 10 января 2022 опубликовала дополнение к документу Rome Call for AI Ethics, подписанному в 2020 году такими корпорациями, как Майкрософт и ИБМ, адресованное последователям иудаизма и ислама. Его цель — распространение «алгорэтики» (то есть этики алгоритма), учитывая, как напомнил епископ Винченцо Палья, президент Академии, что новые технологии «могут привести к великому прогрессу, но и к не менее великой трагедии, поскольку есть опасность, что они подвергнут человечество своего рода диктатуре техники, угрожающей самому человечеству».

[20] Cfr G. Mocellin, Intelligenza artificiale & fede. Noi credenti e le «seduzioni» religiose di ChatGpt, in Avvenire, 10 октября 2023.

[21] Там же.

[22] См. A. K. Cronin, Power to the People. How Open Technological Innovation is Arming Tomorrow’s Terrorists, Oxford, Oxford University Press, 2020.

[23] См. M. Gaggi, Le falsità intelligenti che minacciano il mondo, in Corriere.it (12 октября 2023).

[24] См. P. Ottolina, Benanti: « Più dell’intelligenza artificiale mi spaventa la stupidità naturale», in Corriere.it, 24 апреля 2023.

[25] См. M. Gaggi, Le falsità intelligenti che minacciano il mondo, cit., 28.

[26] См. Piers Morgan vs Yuval Noah Harari On AI The Full Interview, in youtube.com/watch?v=lEt6OJEArM8