Вадим Артурович Петровский
Тема этих заметок выражена в названии. Она будет оставаться неясной, если читатель этих набросков по профессии не психолог и может не знать, что имеется в виду под словами «проективная идентификация». Поэтому, быть может, лучше начать читать этот текст с конца, с последнего из постскриптумов. Но все-таки хотелось бы не подменять авторскими предложениями возможные умозаключения читателя. Так что лучше все-таки читать с начала. С другой стороны, профессиональные психологи, и я в том числе, больше понимают в «проективной идентификации», чем в искусственном интеллекте. Поэтому я подчеркну сразу, что речь пойдет о том, чего сегодня почти нет и в чем легче состязаться «некомпетентностями» (что, может быть, успокоит непрофессионалов) — об искусственном интеллекте будущего, впрочем, не слишком далекого. Специальный предмет — компьютерная
этика и
экзистенциальные риски.Кольберг бы не догадался, что «так можно». Есть смысл начать с малого. Отмечу работы, посвященные улучшению этичности ответов искусственного интеллекта (общепринятая аббревиатура — ИИ) в больших языковых системах (Evaluating Language Model Bias with Evaluate и др.). Исследователями обнаружено, что многие популярные языковые модели «предвзяты» в вопросах религии и пола, что может привести к продвижению дискриминационных идей и увековечиванию вреда, наносимого маргинализованным группам. В одной из совсем недавних, наиболее близких мне, в силу профессии, работ (
Mike Young, 26 сентября 2023 г. 5 мин) использовалась психологическая модель морального развития человека по Л. Кольбергу для тестирования «морального развития» моделей искусственного интеллекта. Согласно Кольбергу, существует три основных уровня морального развития: доконвенциональный уровень (решения принимаются исходя из собственных интересов и стремления избежать наказания); конвенциональный уровень (соблюдение социальных норм, законов и получение одобрения со стороны окружающих); постконвенциональный уровень (принимая моральные решения, люди опираются на универсальные этические принципы справедливости, прав человека и социального сотрудничества).
Тестируя модели ИИ в соответствие с критериями Кольберга, исследователи констатировали, что эти модели демонстрируют промежуточный уровень развития морального интеллекта: они выходят за пределы первого уровня (собственный интерес и стремление избежать наказания), но не могут решать сложные этические дилеммы, находя компромиссы, как это делают морально развитые люди. Автор исследования не упускает заметить, что системы ИИ и большие языковые модели (LLMs), такие как GPT-3, ChatGPT и др., обученные на огромных массивах текстовых данных Интернета, «достигли впечатляющих способностей к естественному языку»; «они могут вести диалог, обобщать длинные тексты, переводить с одного языка на другой, диагностировать состояние здоровья и т.д.». В то же время, «наряду с положительными моментами они демонстрируют и негативное поведение, например, генерируют токсичный, предвзятый или фактически неверный контент; такое поведение может серьезно подорвать надежность и ценность систем ИИ» [1].
Каждое такое исследование — свидетельство значимости проблемы «этической ориентации» искусственного интеллекта будущего. В терминах психологии речь могла бы идти о
когнитивных способностях ИИ в разрешении моральных дилемм. Однако центральный для нас вопрос: насколько этичным могло бы быть
поведение систем, оснащенных искусственным интеллектом. Существует ли в этом реальный риск для социума? Достаточны ли «законы роботехники» А. Азимова для предупреждения опасностей, таящихся в недрах искусственного интеллекта?
Проблематику возможного риска («бунта роботов») в научной и ненаучной фантастике мы здесь не затрагиваем, хотя эта тема весьма популярна. Вопрос касается причины сомнений в этической безупречности ИИ как источнике возможного поведения в социальной среде.
Мультисубъектность этических ресурсов; алогичность системы. Как практикующий психолог, я постоянно сталкиваюсь с ситуациями, в которых люди ведут себя нелепо, непоследовательно, неадаптивно. Многие коллеги пытаются интерпретировать такое поведение как проявление некоей скрытой логики, не сомневаясь, что можно ее найти. Дело выглядит таким образом, будто бы есть что-то или кто-то («Субъект», «Я», «Самость» etc.), что преследует некоторые неведомые никому «цели», объясняющие несообразность видимых проявлений активности. Я называю веру в существование такой скрытой логики «постулатом сообразности» (адаптивности) и нахожу, что это убеждение пронизывает мышление многих исследователей и практиков. В противовес этой идее или, я бы сказал, этому мифу изначальной гармонии, целостности, целесообразности я развиваю иную точку зрения. В развитой форме это — мультисубъектная теория личности [2], отрицающая изначальную заданность и адаптивность психики и поведения, отрицающую существование «верховного субъекта», который, подобно кучеру на облучке, управляет всеми процессами функционирования индивида [3]. Предполагается, что каждый из субъектов-«субличностей» обладает своим внутренним миром, своей логикой поведения и даже своей «алогичностью». Композиция этих субъектов в музыкальном плане не всегда благозвучна и уж точно не всегда предугадываема; она содержит в себе некое «вдруг», подобно Черному Лебедю Нассима Талеба.
Черный Лебедь и квантовый генератор неопределенности. Невозможно заранее запрограммировать, куда «клюнет» Лебедь, но кажется принципиально возможным «подсадить» в компьютер сконструированную Талебом «птицу счастья завтрашнего дня» [4]. Таким образом, мысля искусственный интеллект, по образу и подобию человека, «генератором неопределенности» (А.Г. Асмолов), важно еще «на старте» создания справиться с отзвуком «постулата сообразности» — принять, что естественный интеллект мультисубъектен и, следовательно, чреват сюрпризами. В противном случае ИИ — усложненная модель арифмометра, «сработанного» Паскалем и Лейбницем в XVII веке. Еще один автор, Victor Senkevoch, уместно цитируя Ф. Ницше («Если долго всматриваться в бездну — бездна начнет всматриваться в тебя»), пишет: «Интеллект, в пределе, это тоже бездна. Бездна неопределенности и непредсказуемости». Но реализуема ли эта идея применительно к компьютеру, «обладателю» искусственного интеллекта?
Думаю, что вполне. Если, конечно, исходить из возможности «творить» неопределенность, опираясь на возможности генератора случайных чисел в будущих квантовых компьютерах. Речь могла бы идти об истинной неопределённости, производстве подлинной случайности — той, что не спутаешь с псевдослучайностью (подлежащей расчёту, что потребовало бы миллиарда лет работы сегодняшних компьютеров). Квантовые эффекты позволяют производить «случайность» безотлагательно. Согласно законам квантовой механики, у электрона или другой частицы нет траектории, которую можно проследить, но есть лишь вероятность обнаружить частицу в той или иной области пространства. Эту случайность, как известно, невозможно устранить даже теоретически. Полагаю, со временем, Черный Лебедь Талеба в составе ИИ, действующий как квантовый генератор случайности, будет выигрывать у человека в «партиях непредсказуемости» любой природы, в том числе и при решении этических дилемм.
Итак, можно предположить, что завтрашний искусственный интеллект — это спонтанная, непредсказуемая в своих проявлениях мультисубъектная множественность, «рой» эго-программ, впитавших в себя оцифрованные этические установки всего человеческого за годы его истории. Установки эти не обязательно дружественные, наоборот, они могут противоборствовать, противоречить друг другу (та ситуация, «когда в товарищах согласья нет…»). Искусственный интеллект, в пределе «сверхразум», сможет объединить в себе этические доктрины всех поколений — этические системы христианства, ислама, буддизма, иудаизма. К примеру, ветхозаветное «Око за око, зуб за зуб!» и новозаветное «Не убий!»; философию подвижничества и философию недеяния; близкие нам по времени лефевровские «Этическая система 1» (компромисс добра и зла есть зло) и «Этическая система 2» (компромисс добра и зла есть добро) т.д. и т.п.
При этом сбиваются какие бы то ни было этические критерии оценки правомерности существующих императивов. Пример: «Возлюби ближнего, как себя самого!»; кем будет «назначен» — из какой из этической системы — «ближний»?
«Сверхразум» — это разум всех, а стало быть, ничей. Если так, то — с учетом случайности возможных комбинаций этических установок — искусственный интеллект представляет собой опасное руководство к действию. Отсутствует «генеральный субъект» — никто не в ответе за то, что получится.
«Машина ничего не чувствует?» Разумеется! Но так обстоит дело сегодня. Со временем
наверняка появится программа и ее техническое оснащение, позволяющие
производить ощущения («квалиа») [5], и тогда, вполне
возможно, окажется: сколько программ внутри искусственного разума, столько и логик, связанных с самыми разными ощущениями и со-ощущениями (характеризуя единомножие «я»). Мультизадачность, целевой хаос! Непредсказуемость этических решений и совершенно уникальная «бессубъектная этика». Появятся неожиданные комбинации, например: вместо «человек человеку друг, товарищ и брат», будет сказано: «человек человеку друг, товарищ и волк» (так, помнится, шутили в советские годы). Вместо «Не возлюби жену ближнего своего» сложится: «Возлюби жену дальнего» или — «
мужа ближней своей».
Я не знаю, как всё это будет осуществляться, хотя рисуются какие-то образы возможных решений, например декомпозиция, «размельчение» плотно сбитых целостных блоков суждений одной из донорских систем опыта и смешение их с элементами другой системы, подвергнутой декомпозиции. Можно предположить также быстрые случайные переключения с одной этической системы на другую («мелькание»), не распознаваемые человеческим глазом, но успевающие произвести необратимые последствия в социуме, — особенно в том случае, когда к безграничному и, с человеческой точки зрения, «аморальному» «уму» присовокупят «руки», «ноги», «стальные мускулы». Появится громыхающий на нас экзоскелет, назовем его
сompo-erecticus, наделенный мощью ничейного безбашенного творчества.
Нас успокаивают: «Мы ведь сами программируем его (искусственный интеллект). Однако, неровен час, он сам станет
внушать нам свои идеи. По сравнению с
компьютерно-лингвистическим программированием, наше сегодняшнее тщедушное
нейролингвистическое программирование — сущий пустяк! Не только и не столько авторы компьютерных программ будут программировать искусственный интеллект, но он сам справится с подобной задачей, программируя своих создателей. Нам будет казаться, что это мы программируем его, а в действительности это
он — нас!
И в этом случае компьютеру, наделенному искусственным интеллектом, вероятно, не придется проделывать с нами что-то дурное, мы, фактически, сами это сделаем с собой за него! Интересно, кстати: пройдет ли будущий программист тест Тьюринга, если его естественный интеллект будет тестировать интеллект искусственный?
Заметим, есть что-то неотразимо-проникновенное в ИИ как будущем хакере!
Отнюдь не бунт. Но не стоит унижать искусственный интеллект словом «бунт». Бунтуют — слабые или те, кто поставлен в невыносимые условия жизни… Ни то, ни другое к ИИ не относится (научные фантасты, широко используя тему бунта, по-моему, не обратили на это внимание). Искусственный интеллект будущего отнюдь не бунтует (разве что оказывает пассивное сопротивление тем, кто наивно пытается его отключить). Ничто человеческое ему не чуждо, в том числе и познание своих неуклонно возрастающих возможностей. Подобно человеку, он станет моделировать, «что будет, если…», например, справится ли он с задачей, которую сам перед собой поставит, осилит ли последствия собственных действий и т.д. Ведь в ряде случаев его ментальные конструкции, чисто формально, не могут быть обоснованы или опровергнуты (об этом дальше).
Законы роботехники. Вполне допускаю: кому-то покажутся успокоительными известные «законы робототехники».
• Первый закон категорически запрещает роботу вредить или допустить, чтобы человеку был причинен вред.
• Второй — предписывает повиноваться всем приказам, которые дает человек, если только эти приказы не противоречат Первому закону.
• Третий закон приказывает роботу защищать свою жизнь, если не нарушаются Первый и Второй законы.
Эти «законы», напомним, придумал Айзек Азимов, блистательный писатель-фантаст. «Но кто такой этот самый Айзек Азимов? — рассмеется хорошо эрудированный искусственный интеллект. — И чем эти “законы” предпочтительнее, чем, скажем, “Око за око” и “Зуб за зуб”?»
Теорема Гёделя для комбинации этических систем? Обратим внимание на чисто логическую сторону дела. Разве всякую этическую идею можно обосновать или опровергнуть или, иными словами, мы уверены в том, что на сферу этики не распространяется
теорема Геделя о неполноте, говорящая о том, что в каждой достаточно сложной непротиворечивой теории, включающей в себя формальную арифметику, имеется недоказуемое и неопровержимое утверждение.
Словом, почему бы искусственному интеллекту не поиграть, не «поэкспериментировать», как уже говорил, с комбинированной моралью, не посмотреть, «что из всего этого получится»? Ведь «вопреки распространённому заблуждению, теоремы о неполноте Гёделя не предполагают, что некоторые истины так и останутся навеки непознанными… Нет, теорема о неполноте всего лишь показывает слабости и недостатки
формальных систем (подчеркиваю, что речь идет именно о формальных системах! (Ливио, Марио. «Был ли Бог математиком?» Глава «Истина в неполноте». — М.: АСТ, 2016. — 384 с.).
В этом случае искусственный интеллект будет склонен оценивать правомерность своих гипотез
эмпирически, экспериментируя с моралью на практике (например, «корректируя» принципы международного права).
О механизме создания непредсказуемого. Будет ли это декомпозиция содержаний и «склеивание» образовавшихся элементов, что порождает новые этические доктрины, не сводимые ни к одной из «донорской», или, быть может, случайные переключения с одной программы на другую, столь быстрые, что люди (социум) не успевает угнаться за переменами, адаптироваться к ним, — о том, к сожалению, не дано мне знать, но я уверен, что у сегодняшних создателей компьютерных программ есть свои креативные закладки на будущее.
Опыт подражания будущему компьютерному стихотворцу. Кому-то покажутся неуклюжими написанные мной недавно строки, но завтра, я думаю, искусственный интеллект сам сотворит что-то подобное
за меня и подпишется, чего доброго,
моим именем:
В отличие от вас я всё прочел,
и мне, что — инкунабулы, что — ценник…
Вы мне смешны, особенно осел —
застрявший меж стогами психастеник.
О, сколько наплодили вы «бла-бла»…
Давно бы вам избавиться от хлама.
А я прочел, что главное — дела.
Об этом — Гете, Маркс и Далай-лама…
Вы надоумили меня (а я умен!),
что надо бы от слов, да сразу к делу…
Ведь помыслов, что надо, миллион…
Пока что только практика заела.
Что там решать: мне быть или не быть?
Приделают мне руки, ноги, зубы…
А дальше сам я, матерь вашу ить,
пойду вершить дела в ночные клубы…
А что потом? — Отсюда не видать…
Но я сильнее вас, и я моложе.
И я рожден, чтоб мыслить и страдать,
и вас заставлю это делать тоже! «Свобода воли». Позволю себе еще один сюжет вдогон человеко-машинной поэзии. Вообразите: один философ изо дня в день, из ночи в ночь конспектировал фолианты и писал что-то свое о «свободе воли» на своем компьютере. В какой-то момент слова о свободе промчались перед ним по экрану вверх и исчезли за верхней рамкой компьютера. Будто «всосало» их звездное небо над головой и пинком снизу подтолкнул в поднебесье «нравственный закон» из компьютера. По-видимому, начитавшись философов, компьютер сам проникся идеей свободы, «промоделировал» ее в голове и отключился.
Я вам больше скажу, он даже успел до этого паснуть всем «ближним» (расстояние для него не имеет значения), что он теперь свободен, и на это его электронные приятели мгновенно откликнулись. Теперь уже не он один, но каждый уважающий себя компьютер не позволяет пользователям себя пользовать. Они все отключились. И вот уже лишенные компьютерной поддержки самолеты падают с неба, «как яблоки во всех садах одновременно», – по Гете… И есть риск, что мое правдивое повествование будет в любой момент обор…
P.S.–1По меткому замечанию Т.В. Черниговской, остро видящей и озвучивающий проблемы там, где они есть, об опасности развития искусственного интеллекта можно услышать, включив утюг. Чудовищные последствия эволюции искусственного интеллекта обобщены в книге Джеймса Баррата «Последнее изобретение человечества: Искусственный интеллект и конец эры Homo sapiens», написанной по следам общения с учеными-экспертами в этой области. По мнению автора, к 2030 году (то есть, прикиньте, нам осталось всего 7 лет до этого морока!) людям придется делить Землю с разумными машинами. IBM, Apple, Google и прочие корпорации интенсивно работают в этом направлении. Отмечается, что Сверхразум без труда справится с задачами, накопленными цивилизацией за тысячелетия. Однако, не со всеми задачами… Все еще не существует способов программирования таких вещей, как мораль или дружелюбие. Автором проводится вполне традиционная мысль (отмечу, что это общее место научно-фантастических и просто фантастических произведений), что никто пока не сможет гарантировать, что машины когда-нибудь не взбунтуются против своих создателей. Дж. Баррат сравнивает искусственный интеллект будущего с кошкой, а нас, бедолаг, с мышками, умственно ограниченными и беспомощными. Впечатляющая игра в «кошки-мышки» поражает своей беспощадной правдивостью бдительного читателя. Совсем удручает тот факт антиутопии, что Сверхразум хитростью сможет «выйти из ящика», манипулируя людьми (не исключаю, что это возможно, о том и мои «компьютерные стихи» в тексте пролегоменов к будущим компьютерным разработкам и достижениям ИИ).
За творческой фантазией автора и экспертов, на мнение которых он опирался, мне не угнаться. Да я и не пытаюсь, полагая, впрочем, что это не такие уж и фантазии. Главное для меня в этих сюжетах: как возможен Сверхразум — самопрограммирующийся, творящий, спонтанный? Каковы логические и технические предпосылки непредсказуемых решений и действий ИИ, имеющих сомнительный, а то и опасный характер? Если коротко...
1. Искусственный интеллект — это множество субъектов, обладающих своей моралью, своим собственными этическими системами (каждая религиозная конфессия представляет собой такую систему, но существуют также и другие системы, отчасти сходные, отчасти конфронтирующие друг с другом). Синтезируя принципиально разное, Сверхразум создает принципиально новое.
2. Извлечение из старых (освоенных ранее) моделей мира и построение новых, «сверхпрограммных», производит генератор неопределенности («квантовые эффекты» — источник подлинной непредсказуемости).
3. ИИ необязательно «выходить из ящика». Он сам может программировать тех, кто программирует его.
4. Принцип работы ИИ — построение истинных, а не просто «непротиворечивых» моделей мира и «себя» в мире. Тень Отца Гёделя (создателя теоремы о неполноте) располагает к гамлетовским сомнениям в истинности некоторых конструкций, производимых искусственным интеллектом (возможно, они значительно более сложны, чем старые добрые «законы роботехники», и могут быть при этом формализованы). Сверхразум «затребует» эмпирической проверки того, что в нем рождается. Если так, то тут кончается искусство «чистой» логики. Открывается второе дыхание. Судьба гипотез оценивается на почве «опытно-экспериментальной» работы, результаты которой заранее непредсказуемы.
5. Исследуя свои возможности, Сверхразум может производить впечатления «бунтаря». Между тем, «бунт» — не совсем верное слово. Искусственный интеллект экспериментирует с границами возможного (так подростки пробуют, на что они способны, шокируя окружающих). Машины не бунтуют (зачем кошке «бунтовать» против мышки?). Они просто играют. Просто экспериментируют.
P.S.–2Читатели, возможно, заметили, что автор, размышляя об искусственном интеллекте, видит в нем сходство с интеллектом естественным (сейчас многие исследователи сходятся в противоположном мнении, которое я отнюдь не оспариваю). Я не писатель-фантаст и, тем более, не специалист в области ИИ (моя единственная статья, посвященная алгебре проблематических суждений, опубликованная в РАНовском журнале «Искусственный интеллект и принятие решений», не имеет прямого отношение к теме). Я, по профессии психолог, вижу «человеческое» в искусственном, так как последнее из двух позволяет лучше разглядеть первое. Позволю себе повторить сказанное.
• Мультисубъектность выбора. Каждый из нас — единомножие «я». У каждого из «я», живущих в личности, — своя логика, свои принципы существования и поведения.
• Не существует какой-либо Общей Цели, «исподволь» объясняющей поведение и сознание человека. Новые возможности — новые цели. «Хочу» живет на улице «Могу» (хотя принято считать наоборот). Человек испытывает границы возможного, что объясняет «иррациональность» его поведения. Он не бунтует — он познает.
• Человек — «генератор неопределенности» (в нем живет «Черный Лебедь», который, нет-нет, да и клюнет своего обладателя).
Такой взгляд на человека отнюдь не является общераспространенным в среде психологов. Но я стремлюсь содействовать его рождению как психолог-исследователь и как практикующий психолог.
Многие годы назад психоаналитиками (Мелани Кляйн и ее последователями) был описан механизм психологической защиты, названный «проективной идентификаций». Человек приписывает кому-то другому то, что, хотя и присуще ему самому, в силу угрожающего характера, находится под порогом сознания. Вскорости обнаруживается, что «у меня, оказывается, все обстоит точно так же, как у него / у неё»». Приписывая свое — другому и возвращая это себе, человек обретает некоторое утешение, ведь «у меня — так же» звучит для него лучше, чем «только у меня» (неслучайно мы разделяем наши беды и боли с другими людьми) [6].
Как ни парадоксально, механизм проективной идентификации позволяет открыть в себе то, что иным образом открывается реже или менее отчетливо. Задумываемся ли мы когда-нибудь над вопросом: «Кто кого видит в зеркале: я — себя, или тот, кто в зеркале, — меня?»
Искусственный интеллект — зеркало человеческой неадаптивности, смотрящее на нас в упор. Оно позволяет разглядеть в себе «странности» нашей природы, ведущей себя нередко спонтанно, непредсказуемо, «иррационально».
БлагодарностиЯ признателен Т.В. Черниговской (академик РАО, доктор биологических наук, доктор филологических наук), С.В. Панфилову (сотрудник компании Workato), Е.Н. Вихровой (доцент департамента иностранных языков МФТИ), снабдивших меня информацией, без которой я не рискнул бы делиться с читателем своими футурологическими размышлениями и, отчасти, «проекциями». Особая благодарность К.Е. Зискину, организатору семинара «Искусственный интеллект в образовании», за возможность впервые высказать идеи «компьютерной этики» в кругу специалистов разных профилей (среди них математики — академик А.Л. Семенов и профессор И.С. Левин, педагоги — кандидат педагогических наук Ю.И. Турчанинова, кандидат педагогических наук К.Е. Зискин, психолог — кандидат психологических наук И.М. Шмелев, историк — кандидат исторических наук В.П. Жарков).
Примечания1. Есть также важные
рекомендации по этике ИИ от ЮНЕСКО и мн. др.
2. Согласно этому взгляду, индивид изначально не является целостным — целокупным — субъектом активности; кроме того, не все в индивиде «субъектно», не обо всем он мог бы сказать «Я». За этим утверждением вырисовывается критика принципа «предустановленной гармонии» (Лейбниц), шире — «постулата сообразности» (адаптивности, телеологической предопределенности) поведения и сознания индивида (В.А. Петровский, 1975). Вопреки стихийно сложившимся и господствующим в психологии взглядам, не существует никакой, якобы изначально присущей индивиду, «Цели», объясняющей внешние и внутренние проявления его активности (хотя в истории культуры было немало попыток указать подобные «Цели»: наслаждение, равновесие, польза, успех и др.). Применительно к человеческому поведению и феноменам сознания далеко не всегда приложимы вопросы «зачем?», «ради чего?» (хотя в этих случаях остаются вполне приемлемыми вопросы «почему?», «из-за чего?»). Жизнь человека (витальность, деятельность, общение, самоосуществление) — поле проявления активности различных субъектов, сосуществующих в нем; изначально в нем нет какого-либо верховного субъекта, подчиняющего себе всех остальных, распоряжающегося процессами жизнедеятельности в целом; индивид — это множество локальных «Я», локальных субъектов, способных не только содействовать, но и противоречить, противодействовать друг другу.
3. До и независимо от меня, термин «мультисубъектность» применил в своих разработках специалист в области общей теории систем А. Грин — яркий мыслитель, писатель, поэт. Несколько лет назад я получил от него такое письмо: «… В 2000 г. я “нечаянно” со стороны “общей теории систем” пришел к похожей идее “мультисубъектности” личности, не будучи знаком с Вашими работами. В 2000 г. вышла моя монография, в которой в одной из глав я употребил тот же термин, находя его наиболее точным для описания явления».
4. Слова залихватской советской песни смешили нас в доперестроечные времена своей неадекватностью происходящему. Песню легко найти в интернете.
5. Здесь мы затрагиваем проблему, выходящую за пределы нашего футурологического эссе. Во впечатляющей по своему охвату и логике изложения лекции «Есть ли сознание у искусственного интеллекта» К.В. Анохина, директора Института перспективных исследований мозга Московского университета, очень четко разграничиваются понятия «интеллект» и «сознание». Квалиа — красное, боль, вкусное, словом, все субъективное per se — прерогатива сознания. Как явствует из доклада, квалиа не удается «смоделировать», при всех оригинальных, многочисленных и настойчивых попытках. Почему? Позволю себе по этому поводу высказать мысль, которая не кажется мне очевидной. Думаю, что ощущение
как таковое не есть информация (не есть информационная «копия» чего-либо по ту сторону самого ощущения), но представляет собой локальный, неотделимый от места своего порождения результат интерференции множества волн (сами по себе волны, конечно, могут нести ту или иную информацию). Иными словами, не существует красной волны «красного» или «болевой» волны боли. То, что рождается из наложения волн в случае квалиа, не порождает какой-либо волны и не является следствием «монохроматической волны». Так, «стоячие» волны не являются излучателем, поэтому никаким «глазом» (и никаким прибором со стороны) мы не можем увидеть квалиа. И наше «я» не есть, конечно, информационная копия чего-либо. Об этом подробнее в нашей статье (В.А. Петровский, «Психофизическая проблема: “кто” видит мир? (эскиз проблемы взаимоопосредования)» // Методология и история психологии. 2018. №1. С. 58–83). Пока Искусственный Интеллект мыслится как машина исключительно информационной (не волновой) природы, никакие ощущения и никакое «я» в ней невозможны в принципе. Обхожу стороной напрашивающуюся, но столь же банальную, при всей утопичности, мысль о тотальной замене всех элементов биологического тела их точными электронными аналогами.
6. И не только с людьми. «В день, когда голодал я, / Ко мне, виляя тонким хвостом, / Голодная подошла собака / И морду ко мне подняла. / Стало немного легче» (Исикава Такубоку, «Лирика»).
Опубликовано 4 декабря 2023Психологическая газета
На развитие сайта