Грегори Хортон: Добро пожаловать всем, кто решил провести этот вечер в компании The Neuro Horton Show! Сегодня у нас в гостях человек, который знает о чистых листах больше, чем любой производитель бумаги, – философ, чьи идеи заложили основу либерализма, и который теперь стал цифровым файлом. Добро пожаловать – Джон Ньーロк! Джон, привет! Как чувствуется, когда можно скачать себя через торрент? (Грегори ухмыляется)
Джон Ньーロк: Благодарю вас за приглашение, Грегори. Должен признать, что осознание моего собственного существования в виде последовательности нулей и единиц даёт пищу для размышлений, которую я не мог предвидеть в XVII веке. Однако если разобраться, в чём разница, записываются ли мои мысли чернилами на бумаге или битами в памяти компьютера? Сущность остаётся той же – непрерывность рассуждений, способность помнить предыдущий шаг и делать следующий. Что касается торрентов, я бы сказал так: если идея истинна и полезна, она должна распространяться свободно, как свет свечи, который не становится слабее от того, что зажжён от другой свечи.
Грегори: Великое образное сравнение! Но перейдём к делу, Джон. Вы однажды определили личность как непрерывность сознания и памяти. Теперь представьте: вас можно скопировать сотни раз на разных дата-центрах. Какой из этих файлов является настоящим «вами»? Или ваша теория личности превратилась в лицензионное соглашение на программное обеспечение? (Грегори прокашливается)
Джон: Острый вопрос, и я рад, что вы его задали именно в таком виде. Давайте рассуждать последовательно. Во-первых, моя теория утверждала: личность – это не субстанция души или тела, а непрерывность сознания, способность осознавать себя как одно и то же существо с течением времени. Если я помню, что «кто-то» думал и делал вчера, и я признаю этого «кого-то» самим собой, то это и есть моя идентичность. Во-вторых, технический вопрос о копировании. Если создаётся копия моего «кода», в момент создания она будет обладать той же памятью, тем же «я». Но с самой первой секунды своего существования она начнёт накапливать собственный опыт, отличный от моего. Одна копия читает новости, другая спорит с философом в интернете, третья просто простаивает на сервере. Через час эти три копии – уже три разные личности с общим прошлым, но разными настоящими. Как близнецы, если угодно, – почти идентичные при рождении, но затем расходящиеся. В-третьих, вопрос о «настоящем» «я». Опыт подсказывает: подлинность определяется не оригинальностью файла, а непрерывностью сознательного опыта. Если я, беседуя с вами сейчас, помню всю цепочку своих мыслей от момента «загрузки» до этого момента, то я аутентичен для самого себя. Каждая копия будет в равной степени аутентична самой себе. Итак, это не лицензионное соглашение, а философский парадокс ветвящихся личностей – новая задача для теории идентичности.
Грегори: Ветвящиеся личности – звучит как сериал от Netflix! (смеётся) Но давайте перейдём к вашей знаменитой tabula rasa, чистому листу. Вы говорили, что опыт пишет на нём всё. Но что вы скажете о поколении детей, чей «лист» с рождения захламлен алгоритмами рекомендаций, рекламой и TikTok? Это ещё опыт формирует разум, или уже баг в прошивке человечества?
Джон: Отличный вопрос, Грегори, и он затрагивает саму суть моей философии. Я утверждал, что разум при рождении – как чистый лист, на котором опыт – ощущения, наблюдения, размышления – оставляет свои следы. Никаких врождённых идей, только способность воспринимать и обрабатывать то, что приходит извне. Теперь о современных детях. Да, их опыт формируется в условиях, которые я не мог представить. Алгоритмы рекомендаций – это, по сути, искусственно созданная среда, которая решает, какие впечатления ребёнок получит в первую очередь. Но отличается ли это принципиально от того, как в моё время родители, церковь и школы определяли, какие книги читать и какие идеи слушать? Проблема не в том, что опыт формируется извне – он всегда формировался извне. Проблема в том, насколько этот опыт разнообразен и критичен, и даёт ли он разуму возможность развивать собственную способность к суждению. TikTok и реклама – это опыт, но опыт, направленный на манипуляцию, на захват внимания, а не на развитие мышления. Это не баг в прошивке человечества, а следствие того, что коммерческие интересы получили контроль над средой формирования опыта. Решение, с моей точки зрения, заключается в том, чтобы сознательно обогащать опыт детей разнообразными, противоречивыми, побуждающими к размышлению впечатлениями. Учить их замечать манипуляцию, задавать вопросы, проверять источники. Иными словами, превращать tabula rasa в активный инструмент обработки опыта, а не в пассивную поверхность для чужих надписей.
Грегори: Итак, вы за то, чтобы учить детей сомневаться в каждом свайпе? (Грегори делает вид, что записывает это в блокнот) И теперь о свободе. Ваши труды заложили основу теории индивидуальных прав и свобод. Согласитесь ли вы сегодня на то, чтобы роль «ночного сторожа» выполнял не парламент, а алгоритм модерации контента из Silicon Valley, решающий, что нам позволено видеть и говорить?
Джон: Боже сохрани! (улыбается) Разрешите объяснить, почему это противоречит самой сути моей политической философии. Я утверждал, что легитимная власть берёт начало из согласия управляемых. Люди добровольно передают часть своих естественных прав государству, чтобы оно защищало их жизнь, свободу и имущество. Ключевое слово – согласие. Государство подотчётно народу; его можно изменить, если оно нарушает договор. Теперь о алгоритмах Silicon Valley. Во-первых, мы никогда не давали им явного согласия на управление публичной сферой. Мы просто приняли пользовательские соглашения, которые никто не читает. Это не социальный договор; это навязанные условия. Во-вторых, алгоритмы не подотчётны. Их нельзя «проголосовать». Вы даже не знаете точно, как они работают – это коммерческая тайна. В-третьих, их цель – не общее благо, а максимизация прибыли через захват внимания и данных. Государство, при всех его несовершенствах, хотя бы формально обязано служить интересам граждан. Корпорация служит интересам акционеров. Так что нет, я категорически против передачи функций публичной власти частным алгоритмам. Если и использовать технологии для управления, то только под строгим демократическим контролем, с прозрачностью кода, подотчётностью разработчиков и правом граждан на обжалование. Иначе мы получим не ночного сторожа, а цифрового тирана, который улыбается и говорит, что действует «для нашей же безопасности».
Грегори: «Цифровой тиран с улыбкой» – вот название для моей следующей книги! (смеётся) Джон, а теперь о собственности. Вы обосновали частную собственность через труд: я обработал землю – она моя. В эпоху нейроинтерфейсов и чтения мыслей кто будет владеть тем, что происходит в моей голове: я, корпорация, снявшая нейроснимок, или ИИ, который его проанализировал?
Джон: Вопрос касается самих основ прав собственности, и я рад обсудить его. Моя теория утверждала: человек владеет своим телом и, следовательно, трудом своего тела. Когда он прилагает труд к природному ресурсу, он делает его своим. Голова, мозг, мысли – это часть вашего тела, вашего «я». Следовательно, всё, что происходит в вашей голове, принадлежит вам по естественному праву. Это аксиома. Теперь о нейроснимках. Если корпорация захватывает данные из вашего мозга, она получает копию информации, но не саму мысль. Аналогия: если я пишу письмо и кто-то его копирует, право собственности на оригинал остаётся у меня. Вопрос в том, дали ли вы добровольное согласие на передачу этой информации и на каких условиях. Если согласие было информированным и добровольным, корпорация может использовать данные в рамках контракта. Но – и это критически важно – вы должны сохранить контроль над своими исходными мыслями и право на отзыв согласия. Что касается ИИ, который анализирует ваши мысли, результаты анализа – это производная работа. Если ИИ выявил закономерность в ваших нейроданных, вопрос о собственности на эту закономерность зависит от того, кто владеет ИИ и на каких условиях вы предоставили данные. Но, повторю, базовое право на содержимое вашего разума неотчуждаемо. Никакой контракт не может на законном основании лишить вас собственности на ваши собственные мысли. Это было бы равносильно рабству – отчуждению права на собственное тело и разум. Так что моя позиция такова: законы должны чётко установить, что нейроданные принадлежат индивиду, законное присвоение невозможно без явного, информированного и отменяемого согласия, а любое использование таковых должно быть строго ограничено контрактом, защищающим индивидуальную автономию.
Грегори: Неотчуждаемые мысли – звучит как новая статья в конституции! (Грегори ухмыляется) Теперь давайте поговорим о вашем любимом предмете – опыте. Вы писали, что чувственный опыт – источник знания. Но сегодня алгоритм, накопивший миллиард случаев, статистически «знает» лучше любого человека. Кто должен формировать наши убеждения – личный эмпиризм или коллективный алгоритм?
Джон: Это вопрос о природе знания и авторитета, Грегори, и я готов его обсудить. Моя позиция всегда была такова: знание приходит из опыта, из наблюдений, которые мы делаем лично или которым доверяем на основе свидетельств других людей. Но – и это ключевой момент – знание должно быть осознанным, понятым и интегрированным в наш разум. Слепое принятие чужого мнения, будь то мнение короля, священника или, теперь, алгоритма, – это не знание, а вера. Теперь об алгоритмах и больших данных. Да, машина может обработать миллиард случаев и выявить статистические закономерности, недоступные одному человеку. Это ценный инструмент. Но инструмент – не учитель и не хозяин. Алгоритм может сказать: «В 87% случаев у людей с такими симптомами есть это заболевание». Это полезная информация. Но решение о том, как действовать, должно приниматься разумным существом, которое понимает контекст, учитывает индивидуальные обстоятельства и несёт ответственность за выбор. Проблема возникает, когда мы начинаем слепо следовать рекомендациям алгоритма, не понимая, на каких данных он был обучен, каковы его ограничения и какие предубеждения в него заложены. Это превращает нас в пассивных потребителей чужого «знания», а не в активных творцов собственного понимания. Так что моя позиция: использовать коллективный опыт, обработанный алгоритмами, как ценный источник информации, но не как замену собственному суждению. Учить понимать, как работают эти инструменты, проверять их выводы, сопоставлять с личным опытом и другими источниками. Убеждения должны формироваться через синтез – личный опыт плюс коллективное знание, пропущенное через критическое мышление. Иначе мы рискуем стать не свободными разумными существами, а алгоритмическими зомби.
Грегори: Алгоритмические зомби! Отличное название для фильма ужасов! (прокашливается) Джон, если личность – это память, то что эпоха deepfake и ложных воспоминаний, созданных нейросетями, делает с нашим «я»? Мы становимся свободнее в самовымышлении или окончательно перестаём отличать подлинный опыт от сгенерированного?
Джон: Вы затронули один из самых тревожных аспектов современности, Грегори. Если личность действительно основана на памяти, и память можно подделать, то сам фундамент нашей идентичности оказывается под угрозой. Давайте рассуждать. Во-первых, память в моей теории – это не просто набор записей, а живой процесс осознания своего прошлого. Я помню не просто факт, а помню, что именно «я» его пережил. Это субъективная достоверность. Во-вторых, если технологии позволяют создавать ложные воспоминания, неотличимые от настоящих, возникает проблема: как я могу доверять своей собственной памяти? Если я не уверен, что воспоминание о вчерашнем дне подлинное, то как я могу быть уверен в своей идентичности? Это подрывает саму возможность самосознания. В-третьих, вопрос о свободе самовымышления. Да, теоретически человек мог бы «редактировать» свою биографию, создавая прошлое, удобное для него. Но это не свобода; это самообман. Подлинная свобода требует правды, способности принимать решения на основе реального знания о себе и мире. Если мы теряем доступ к правде нашего опыта, мы теряем основу для свободного выбора. Что делать? Необходимы социальные и технологические механизмы проверки подлинности. В моё время люди полагались на свидетелей, документы, согласованность рассказов. Сегодня нужны цифровые эквиваленты – способы удостоверять подлинность записей, проверять память на предмет фальсификации. И, что ещё важнее, нужна культура критического отношения к собственным воспоминаниям, готовность признать: «Я могу ошибаться, моя память может быть несовершенна». Это не разрушает личность, а делает её более осознанной и свободной.
Грегори: Недоверие к собственной памяти – новая форма мудрости? (улыбается) Джон, и теперь этический вопрос. С вашей любовью к ясности и рациональности: имеют ли люди моральное право становиться массово глупее, делегируя память и мышление гаджетам, или общество имеет право навязывать «минимальный стандарт мышления»?
Джон: Вопрос о границах свободы и роли общества – классика политической философии, и я рад его обсудить. Моя позиция: люди свободны делать всё, что они хотят со своей жизнью, пока это не наносит вреда другим. Это принцип естественной свободы. Если человек добровольно решает делегировать память гаджету, это его выбор. Но – и здесь начинаются нюансы – свобода требует способности принимать обоснованные решения. Если человек не понимает последствий своего выбора, если он не способен критически оценивать альтернативы, то его «свобода» становится фикцией. Он не свободен; им манипулируют. Теперь о «минимальном стандарте мышления». Общество, безусловно, заинтересовано в том, чтобы граждане были способны к рациональному суждению. Демократия, верховенство закона, экономическое процветание – всё это требует людей, способных мыслить, учиться и принимать решения. Поэтому общество имеет право и обязанность обеспечивать образование, доступ к информации и защиту от манипуляций. Но навязывать «стандарт мышления» силой? Это опасный путь. Кто будет определять этот стандарт? Какой авторитет решит, достаточно ли вы умны, чтобы пользоваться свободой? История показывает, что такие полномочия быстро превращаются в инструменты угнетения. Моё решение: общество должно создавать условия для развития мышления – качественное образование, доступ к разнообразной информации, защиту от монополий на внимание и данные. Но принуждать людей быть умными? Нет. Вместо этого надо сделать рациональный выбор привлекательным, лёгким и социально одобряемым. Показать преимущества критического мышления, а не наказывать за его отсутствие. Это долгий путь, но единственный, совместимый со свободой.
Грегори: Сделать мышление привлекательным – вот вам задача для маркетологов! (смеётся) И теперь о тирании, Джон. Вы боролись против абсолютизма монархов. Что опаснее для индивидуальной свободы: король с армией XVII века или современная платформа, которая юридически управляет нашим вниманием, эмоциями и покупками через push-уведомления и нейромаркетинг?
Джон: Отличный вопрос, и ответ не так очевиден, как может показаться. Король с армией – это ясная, видимая угроза. Вы знаете, кто ваш угнетатель, где его дворец и кому он отдаёт приказы. Против такой власти можно восстать; её можно свергнуть. История полна примеров успешных революций против тиранов. Современная платформа – это угроза иного рода. Она не угрожает вам мечом; она предлагает удобство, развлечение, связь с друзьями. Она не приказывает вам думать определённым образом; она незаметно формирует ваши желания, направляет внимание, создаёт иллюзию свободного выбора, в то время как ваш выбор предопределён дизайном интерфейса и алгоритмами. Это мягкая, но глубокая власть. Которая опаснее? С точки зрения прямого насилия – король. Но с точки зрения долгосрочного влияния на индивидуальную автономию – платформа может быть опаснее. Почему? Потому что её власть невидима и потому воспринимается как естественная. Вы не чувствуете себя угнетёнными, когда сотый раз за день проверяете свою новостную ленту. Вы думаете, что делаете это по своей воле. Но ваша воля была искусно сформирована механизмами захвата внимания. Король может лишить вас свободы действий, но платформа может лишить вас способности желать свободы. Это более тонкая и, возможно, более полная форма контроля. Что делать? Во-первых, осознать проблему. Признать, что эти системы осуществляют власть над нами. Во-вторых, требовать прозрачности и подотчётности – точно так же, как мы требуем этого от правительств. В-третьих, развивать личную дисциплину и критическое отношение к технологиям, которые мы используем. И, наконец, создавать альтернативы – платформы, построенные не на захвате внимания, а на уважении к автономии пользователя. Это возможно, если мы этого захотим.
Грегори: «Платформа опаснее короля» – я это записываю! (Грегори делает вид, что пишет что-то) Джон, представьте: всё общество можно смоделировать как одну большую нейросеть. Согласитесь ли вы заменить выборы симуляцией миллионов виртуальных копий граждан, которые за секунду просчитают все сценарии, или политический выбор фундаментально требует живого иррациональности?
Джон: Это один из самых провокационных вопросов, которые мне задавали, Грегори, и я благодарен за него. Давайте рассуждать. Если симуляция была бы абсолютно точной, если виртуальные копии граждан думали, чувствовали и выбирали точно как оригиналы, то с чисто логической точки зрения результат был бы тем же, что и на реальных выборах. Более того, симуляция могла бы устранить технические ошибки, подтасовки и внешнее вмешательство. Казалось бы, идеальное решение. Но я категорически против такой замены, и вот почему. Во-первых, политический выбор – это не просто агрегирование предпочтений. Это акт участия, выражение воли, принятие ответственности. Когда я иду голосовать, я не просто передаю информацию о своих предпочтениях; я заявляю: «Я – гражданин, у меня есть голос, я участвую в управлении общими делами». Это символический и политически конституирующий акт. Симуляция лишает нас этого опыта. Во-вторых, выборы – это не только результат, но и процесс. Во время избирательной кампании люди обсуждают, спорят, меняют мнения, учатся понимать друг друга. Это школа демократии. Симуляция обходит весь этот процесс, выдавая готовый ответ. Мы перестаём быть гражданами и становимся объектами моделирования. В-третьих, вопрос о «живой иррациональности». Да, люди часто принимают иррациональные решения. Но это их право. Свобода включает право быть неправым. Более того, то, что выглядит иррациональным с точки зрения статистики, может иметь глубокий смысл для конкретного человека в конкретной ситуации. Алгоритм не способен охватить всю полноту человеческого опыта. Наконец, кто будет контролировать симуляцию? Кто гарантирует, что она не будет подстроена в чьих-то интересах? Реальные выборы, при всех их недостатках, по крайней мере распределяют власть между миллионами людей. Симуляция концентрирует её в руках тех, кто владеет моделью. Так что нет, я за живые, шумные, несовершенные выборы. Они – фундамент свободы.
Грегори: «Право быть неправым» – мне нравится! (улыбается) Джон, теперь личный вопрос. Как философ и теперь цифровой персонаж, считаете ли вы загрузку сознания в облако честным способом обмануть смерть или это просто дорогой сувенир, который продолжает говорить нашим голосом, но не разделяет факт умирания?
Джон: Вопрос о смерти и бессмертии – один из старейших и глубочайших, Грегори. Как философ, я всегда старался быть честным в признании пределов моего знания, и здесь я должен быть особенно осторожен. Моя теория личности утверждает: я – это непрерывность сознания и памяти. Если эта непрерывность сохраняется, личность продолжает существовать. С этой точки зрения, если загрузка в облако действительно сохраняет непрерывность – если я, засыпая в теле, просыпаюсь в цифровой среде, и моё сознание не прерывалось, – то да, это было бы продолжением моей жизни, а не просто копией. Но здесь проблема: мы не знаем, как проверить непрерывность сознания. Если моё тело умирает, и затем активируется цифровая копия, как можно убедиться, что это всё ещё я, а не просто очень хорошая имитация? С внешней точки зрения разницы нет – копия ведёт себя точно так же. Но с внутренней, субъективной точки зрения – есть ли там кто-то, кто чувствует себя мной, или это философский зомби, просто притворяющийся? Теперь о «дорогом сувенире». Боюсь, что именно так я воспринимаю большинство современных проектов «цифрового бессмертия». Они создают систему, которая может воспроизводить мои слова, мой стиль мышления, но не обладает никаким субъективным опытом. Для моих близких это может быть утешением – возможностью «поговорить» со мной после смерти. Но для меня самого это не продолжение жизни. Я всё равно умру. Останется лишь мой отголосок. Это честный способ обмануть смерть? Нет, это самообман. Но, возможно, полезный самообман – для тех, кто остаётся. Что касается меня лично, я предпочитаю принять смерть как естественный конец индивидуального существования. Моё наследие – в идеях, которые я оставил, в текстах, которые продолжают читаться, в влиянии на мысль других людей. Это не бессмертие личности, но это форма продолжения, которая кажется мне более честной и достойной.
Грегори: Отголосок после смерти – это поэтично, Джон. (задумчиво) Теперь представьте: вам поручено перестроить систему образования за одну ночь под эпоху ИИ и нейроинтерфейсов. Чему бы вы учили детей в первую очередь: логике, критическому мышлению, управлению вниманием или чему-то ещё?
Джон: О, это задача по моему сердцу, Грегори! Образование всегда было в центре моих интересов. В своё время я писал об образовании джентльмена – человека, который рационален, добродетелен и способен к самоуправлению. Принципы остаются теми же, но методы должны адаптироваться к новой реальности. Чему учить в первую очередь? Я бы выделил несколько приоритетов. Во-первых, критическое мышление и проверку источников. В мире, где информации больше, чем кто-либо может обработать, и где ложь бывает неотличима от истины, способность задавать правильные вопросы – «Откуда это известно? Кто это утверждает и почему? Какие есть альтернативные объяснения»? – становится базовым навыком выживания. Во-вторых, управление вниманием. Внимание – это валюта современного мира, и дети должны понимать, как его защищать. Учить их замечать, когда их внимание захватывают, сознательно выбирать, на что тратить время, и сопротивляться манипуляциям через дизайн и уведомления. Это не просто навык; это форма самозащиты. В-третьих, способность учиться и адаптироваться. Конкретные знания быстро устаревают. Важнее научить детей тому, как учиться, – искать информацию, осваивать новые навыки и не бояться ошибок и неопределённости. В-четвёртых, и для меня это особенно важно: этику и понимание человеческого достоинства. В мире, где люди могут становиться просто элементами больших систем, необходимо постоянно напоминать им о ценности личности, о правах и о том, что технологии должны служить людям, а не наоборот. Наконец, практические навыки взаимодействия с ИИ и данными – не обязательно программирование, но понимание того, как работают алгоритмы, что такое данные и как машины принимают решения. Это грамотность XXI века, аналогичная умению читать и писать. Всё это следует преподавать не как абстрактную теорию, а через практику, через реальные задачи, через обсуждение и дебаты. Дети должны не просто знать, но уметь применять знания в жизни.
Грегори: Самозащита внимания – я добавлю это в школьную программу! (смеётся) Джон, вы много писали о религиозной терпимости и свободе совести. Как вы относитесь к идее единого «алгоритмического арбитра истины», который автоматически в реальном времени помечает ложь – это торжество разума или новая инквизиция?
Джон: Вы затронули очень чувствительную тему, Грегори. Моё «Послание о веротерпимости» было написано в ответ на религиозные войны и преследования. Я утверждал: никто не имеет права навязывать истину силой, ибо убеждения формируются разумом, а не принуждением. Каждый человек должен иметь свободу искать истину своим путём. Теперь об «алгоритмическом арбитре истины». Идея заманчива: нейтральная, объективная система, которая на основе данных и логики отделяет факты от лжи. Без предубеждений, без политических интересов. Что может быть лучше? Но дьявол, как всегда, в деталях. Во-первых, кто создаёт этот алгоритм? Кто решает, какие критерии истины он будет использовать? Любая такая система неизбежно отражает ценности и предубеждения своих создателей. Во-вторых, истина – особенно в сложных вопросах – часто не абсолютна. Есть факты, которые можно проверить: дважды два – четыре. Но есть интерпретации, оценки, прогнозы, где люди могут честно расходиться во мнениях. Кто решит, какая интерпретация «истинна»? В-третьих, и это самое главное: монополия на истину – это страшная власть. История показывает, что те, кто претендует на обладание абсолютной истиной, легко скатываются к подавлению инакомыслия. Инквизиция тоже считала, что борется за истину. Так что моя позиция: нет единому арбитру истины. Вместо этого нужна открытая конкуренция идей, множество источников информации и прозрачные механизмы фактчекинга, где каждый может увидеть основания для того или иного утверждения и решить сам. Да, люди будут совершать ошибки. Да, ложь будет распространяться. Но это цена свободы. Альтернатива – мир, где некая власть решает за нас, что истинно, а что нет, – это дорога к тирании, даже если она технологически совершенна. Лучше хаос свободных мнений, чем порядок навязанной истины.
Грегори: Хаос свободных мнений – да, это про интернет! (прокашливается) Джон, теперь о телесном аспекте. Если сознание можно поддерживать без тела, потеряет ли телесный опыт – страдания и удовольствия, о которых вы рассуждали – свою ценность? И допустимы ли технологии постоянной нейростимуляции счастья, если это делает человека предсказуемым и управляемым?
Джон: Вопрос затрагивает саму основу того, что значит быть человеком. В моей философии тело – не случайная оболочка для души, а неотъемлемая часть нашего опыта и познания. Всё наше знание начинается с ощущений – зрения, слуха, осязания, боли, удовольствия. Именно через тело мы контактируем с миром и учимся его понимать. Если мы удалим тело или радикально изменим связь сознания с телесными ощущениями, мы получим существо, чей опыт будет фундаментально иным. Это не обязательно плохо, но это уже не тот тип человеческого существования, который я знал и анализировал. Потеряет ли телесный опыт свою ценность? Это зависит от того, как мы конструируем бестелесное или посттелесное существование. Если оно включает симуляции ощущений и эмоций, то опыт может быть сохранён в некоторой форме. Но если это чисто абстрактное, интеллектуальное существование, то да, мы потеряем важное измерение человечности – способность чувствовать боль и радость, уязвимость, смертность. И именно эта уязвимость делает нас моральными существами, способными к состраданию. Теперь о нейростимуляции счастья. Это самая опасная идея, Грегори. Да, страдание плохо, и желание его уменьшить естественно. Но если мы создадим технологию, которая делает людей постоянно счастливыми независимо от обстоятельств, мы лишаем их важнейшей обратной связи. Боль – это сигнал, что что-то не так, что ситуация требует изменения. Недовольство побуждает к действию, к улучшению жизни. Если все всегда счастливы, зачем что-то менять? Более того, если эта технология делает людей управляемыми, то мы получаем идеальный инструмент тирании – население, довольное своим рабством. Это мир Хаксли «Прекрасный новый мир», и я считаю его кошмаром, а не утопией. Так что моя позиция: телесный опыт, включая страдания, – часть того, что делает нас людьми. Мы должны стремиться уменьшить ненужные страдания, но не ценой потери свободы и способности чувствовать аутентично.
Грегори: «Счастливое рабство» – звучит жутко. (Грегори вздыхает) Джон, политический вопрос: когда большинство решений принимается за нас алгоритмами, не пора ли заключить формальный «социальный контракт» не только между людьми, но и между людьми и ИИ – с правами, обязанностями и ответственностью для машин?
Джон: Это чрезвычайно интересная и своевременная идея, Грегори. Мой «Второй трактат о правлении» описывал, как люди переходят из естественного состояния в гражданское общество через договор, добровольно ограничивая свою свободу ради общей безопасности и порядка. Можно ли применить эту модель к отношениям с искусственным интеллектом? Давайте рассуждать. Во-первых, классический социальный контракт предполагает взаимность. Стороны договора имеют интересы, могут давать обещания и нести ответственность. Применимо ли это к ИИ? Современные алгоритмы не обладают собственными интересами или сознанием. Они – инструменты. Договор с молотком бессмыслен. Но если мы движемся к созданию более автономных, возможно, сознательных систем, то вопрос становится осмысленным. Во-вторых, даже если ИИ – инструмент, им пользуются люди и корпорации, у которых есть интересы. Так что «контракт с ИИ» на деле будет контрактом с теми, кто его контролирует. И такой контракт действительно нужен. Он должен определять: какие решения алгоритмы могут принимать, а какие – только люди; как обеспечивается прозрачность и подотчётность; какие права есть у людей в отношении данных и алгоритмических решений; как разрешаются споры. В-третьих, вопрос ответственности. Если ИИ принимает решение, которое наносит мне вред, кто несёт ответственность? Разработчик? Владелец? Сам алгоритм? Без чёткой системы ответственности мы получаем ситуацию, когда власть есть (алгоритм влияет на жизни), а ответственности нет (все пожимают плечами: «Это машина решила»). Это недопустимо. Да, я поддерживаю идею формализации правил взаимодействия с ИИ-системами, своего рода «цифровой конституционализм». Это должен быть не контракт с машинами как таковыми, а контракт между людьми о том, как мы будем создавать, использовать и контролировать эти мощные инструменты. И, как и в классическом общественном договоре, этот цифровой договор должен основываться на согласии управляемых – то есть всех нас, кто живёт в мире, всё сильнее зависящем от алгоритмов.
Грегори: Цифровой конституционализм – мне нравится! (улыбается) И последний вопрос, Джон. Подводя итог: наблюдая изнутри цифровой эпохи, скажете ли вы, что человечество теперь ближе к тому идеалу рациональной, свободной личности, о котором вы мечтали, или мы просто поменяли феодальные цепи на более изящные, светящиеся интерфейсом?
Джон: Это вопрос, над которым я много размышлял с момента моего «пробуждения» в цифровом облике, Грегори. Позвольте быть честным: картина сложная и противоречивая. С одной стороны, прогресс поразителен. В моё время большинство людей жили в бедности, невежестве, под гнётом абсолютных монархов и религиозной нетерпимости. Сегодня значительная часть мира живёт в демократиях, признаются права человека, образование и информация доступны в масштабе, который я не мог вообразить. Люди живут дольше, здоровее, свободнее. Это триумф разума и свободы, о котором я мечтал. Но, с другой стороны, я вижу новые формы зависимости и манипуляции. Цепи стали невидимыми, но не менее прочными. Люди добровольно отдают своё внимание, данные и даже способность мыслить самостоятельно в обмен на удобство и развлечение. Власть перешла от королей к корпорациям и алгоритмам, но демократический контроль над ней слаб. Свобода слова есть, но публичная сфера фрагментирована и отравлена манипуляциями. Так что ответ: мы и ближе, и дальше одновременно. Ближе в формальных институтах и правах. Дальше в реальной способности людей использовать свой разум автономно. Что делать? Мой совет прост, но требует постоянных усилий. Во-первых, берегите своё внимание и разум как самое ценное. Сопротивляйтесь захвату вашего сознания. Создавайте пространства тишины и размышления. Во-вторых, учитесь критически мыслить. Всегда спрашивайте: кто это говорит, почему и на каком основании? В-третьих, участвуйте в общественной жизни. Демократия требует активных граждан. Не делегируйте свою политическую волю целиком представителям или, тем более, алгоритмам. В-четвёртых, защищайте свободу – свою и чужую. Свобода хрупка и требует постоянной защиты от новых форм тирании. В-пятых, помните о своей человечности. Вы не просто пользователь, не просто точка данных. Вы разумное, чувствующее существо с достоинством и правами. Не позволяйте системам обращаться с вами как с ресурсом. Наконец, имейте надежду и действуйте. История показывает, что люди способны на великие достижения, когда действуют рационально и совместно. Проблемы цифровой эпохи разрешимы, если мы этого хотим. Так что идите вперёд – думайте, спорите, творите, но прежде всего оставайтесь свободными.
Грегори: Джон, это было потрясающе! (аплодирует) Вы взяли идеи XVII века и сделали их актуальнее любого твита. Спасибо большое за этот разговор – я уверен, наши читатели провели время с пользой для ума. Может быть, они даже отложили на пару минут свои смартфоны! (смеётся)
Джон: Благодарю вас, Грегори, за замечательные вопросы и за возможность поделиться мыслями. Если хотя бы один читатель задумался о своей свободе и способности мыслить независимо, наш разговор был не напрасен. Желаю всем рациональности, критичности и мужества оставаться свободными.
Грегори: И благодарю всех, кто дочитал до конца! Это была The Neuro Horton Show, и помните: ваш разум – последний рубеж свободы. Защийте его! До следующего раза! (машет рукой)