От кремния к синапсам: может ли ИИ обмануть тест на сознание?

От кремния к синапсам: может ли ИИ обмануть тест на сознание?

Как современные технологии приближают нас к созданию осознающих машин.

image

Прогресс в области искусственного интеллекта (ИИ) размывает границы между уникально человеческими способностями и теми, которые могут быть воспроизведены машинами. Если искусственный общий интеллект (AGI) достигнет своего полного потенциала, превзойдя человеческий разум, различия между возможностями людей и компьютеров могут полностью исчезнуть.

В последнее время эта потенциально тревожная тема привлекает значительное внимание СМИ и экспертов. Развитие AGI ставит перед нами сложнейшие моральные и правовые вопросы. Если такие машины обретут сознание, мы столкнемся с необходимостью признать их чувства, мысли, желания и, возможно, фундаментальные права как новых разумных существ. С другой стороны, если ИИ достигнет превосходства над человеком во всех сферах, но останется лишенным сознания, мы рискуем оказаться под властью более развитого, но "бесчувственного" интеллекта.

Оба потенциальных будущих сценария не внушают оптимизма, и оба требуют ответа на крайне сложные вопросы: что именно является сознанием? И останется ли оно биологической чертой, или в конечном итоге может быть разделено с созданными нами устройствами AGI?

Сознание в компьютерах фон Неймана

Для того чтобы компьютер мог испытать широкий спектр внутренних состояний, доступных людям, его аппаратное обеспечение, по всей видимости, должно функционировать как человеческий мозг. Человеческие мозги являются чрезвычайно энергоэффективными аналоговыми «устройствами», способными к высокоуровневой параллельной обработке.

Современные компьютеры, основанные на архитектуре фон Неймана , не обладают этими качествами — они энергоемкие цифровые машины, состоящие в основном из последовательных цепей.

Компьютерные чипы фон Неймана физически разделяют память и процессор, требуя извлечения информации из памяти перед выполнением вычислений. «Классические компьютеры фон Неймана имеют разделение между памятью и процессором. Инструкции и данные находятся в памяти, и процессор извлекает их, насколько это возможно параллельно, затем производит вычисления и возвращает данные обратно в память», — объясняет Стивен Дайсс, нейроморфный инженер из UC San Diego.

Это ограничение на то, сколько информации может быть передано за определенное время, и лимит, который это накладывает на скорость обработки, называется узким местом фон Неймана . Узкое место фон Неймана не позволяет нашим текущим компьютерам соответствовать или даже приблизиться к вычислительным возможностям человеческого мозга. Из-за этого многие эксперты считают, что сознание в современных компьютерах крайне маловероятно.

Сознание в нейроморфных компьютерах

Компьютерные ученые активно разрабатывают нейроморфные компьютерные чипы, которые обходят ограничения на обработку компьютеров фон Неймана, имитируя архитектуру нейронов. Некоторые из них объединяют хранение памяти и процессорные блоки на одном чипе. Другие используют специализированные маломощные элементы обработки, такие как мемристоры, тип транзистора, который «помнит» прошлые состояния напряжения, для повышения эффективности. Нейроморфные чипы имитируют параллельную проводку и низкие энергетические требования мозга.

«Устройство вычислений в памяти, которое включает в себя нейроморфные компьютеры, использует физику аппаратного обеспечения для выполнения вычислений», — объясняет Дайсс, имея в виду мемристоры. «Элементы обработки являются элементами памяти».

Если нейроморфные технологии смогут быть разработаны до уровня, необходимого для воспроизведения нейронной активности, нейроморфные компьютеры могут иметь больший потенциал для осознанного восприятия жизни, а не просто для интеллектуальных вычислений. «Если мы когда-либо достигнем уровня сложности обработки, как у человеческого мозга, тогда мы сможем сказать: “Это работает как мозг — возможно, оно чувствует то же, что и мы”», — говорит Дайсс.

Тем не менее, даже в будущем, наполненном аппаратным обеспечением, подобным мозгу, и готовой сценой для искусственного сознания, остается большой вопрос: как мы узнаем, испытывают ли наши системы AGI печаль, надежду и прекрасное чувство влюбленности, или они просто выглядят так, будто испытывают эти чувства?

Как мы когда-нибудь узнаем, что происходит внутри разума машины?

Обилие теорий сознания

Есть только один способ узнать: эмпирически определить, как работает сознание у органических существ, и разработать метод, с помощью которого его можно будет последовательно распознавать. Необходимо понять сознание в себе, прежде чем появится надежда на его распознавание в искусственных системах. Поэтому, прежде чем погружаться в сложные последствия создания сознательных компьютеров, необходимо разрешить древний вопрос: что такое сознание и кто его имеет?

В последние десятилетия нейробиологи взяли этот многовековой вопрос из рук философов, признав, что связь между нейронной активностью и осознанным опытом неоспорима. Существует множество нейробиологических теорий сознания (ToC, Theories of Consciousness) — их так много, что предпринимаются усилия по сокращению списка до управляемого количества. Здесь будут рассмотрены три из них: Теория интегрированной информации (IIT, Integrated Information Theory), Теория глобального нейронного пространства (GNWT, Global Neuronal Workspace Theory) и Теория схемы внимания (AST, Attention Schema Theory).

Согласно Теории интегрированной информации (IIT) , разработанной Джулио Тониони , директором Института сна и сознания Висконсинского университета в Мэдисоне, ключ к сознанию лежит в количестве интегрированной информации в системе — насколько сложно ее компоненты общаются друг с другом через сети нейронов или транзисторов. Система с высоким уровнем интегрированной информации является сознательной, а система с низким уровнем интегрированной информации — нет.

Кристоф Кох , заслуженный исследователь Института мозга Аллена в Сиэтле, штат Вашингтон, и сторонник IIT, объясняет, что человеческие мозги имеют высокий уровень интегрированной информации благодаря обширной параллельной проводке их нейронных сетей. Информация может проходить по множеству нейронных путей одновременно, что увеличивает вычислительную мощность мозга. Современные компьютеры, подверженные узкому месту фон Неймана, в основном состоят из последовательных цепей, поэтому сопоставимый уровень обработки информации недостижим.

Теория схемы внимания (AST) , разработанная Майклом Грациано , профессором психологии и нейробиологии в Принстоне, предлагает иной взгляд: наш мозг создает модель того, на что мы обращаем внимание, называемую «схемой внимания». Эта модель, как модель самолета, является представлением. Модель самолета не включает в себя полностью оборудованную кабину или функциональную кабину пилотов. Точно так же схема внимания нашего сознания — это приближение: мысленная модель того, на что наш ум обращает внимание и как мы это переживаем.

AST предполагает, что, несмотря на свои ограничения, наша схема внимания настолько убедительна, что у нас есть тенденция неправильно заключать, что сознание — это что-то мистическое, что-то «большее», чем материя. На самом деле мы имеем доступ только к этой модели нашего разума, а не к самому разуму, поэтому мы не можем напрямую понять, как работает наш ум, как модель самолета не может воспроизвести опыт полета.

Теория глобального нейронного пространства (GNWT) , основанная Бернардом Баарсом , сотрудником-исследователем в области теоретической нейробиологии в Институте нейронаук UC San Diego, предлагает, что информация, которую наш мозг считает достаточно важной, избирательно и временно помещается в центральное пространство внутри нашего мозга (аналогичное кинотеатру), чтобы мы могли обратить на нее внимание. Информация, которую нам не нужно осознанно учитывать, хранится в связанных, но отдельных областях (аналогично закулисью).

«Основная идея [GNWT] довольно проста. В любой данный момент времени только подмножество бессознательной информации выбирается сетями внимания, и этот выбор служит для подключения бессознательных модулей обработки к “глобальному рабочему пространству”. Какое бы содержание ни находилось в рабочем пространстве, оно осознается в этот момент», — говорит Майкл Питтс , профессор психологии в Рид-колледже в Орегоне.

Несмотря на различия в подходах, IIT, GNWT и AST имеют общую цель — эмпирически раскрыть сложные отношения между мозговой тканью и опытом жизни. Как только нейробиологи поймут, как нейронные сети создают сознание, эти знания можно будет использовать для понимания осознанных переживаний — или их отсутствия — в неорганических сетях.

Сознание компьютера: больше, чем футуристическая мечта?

Согласно IIT, сознание в наших современных компьютерах абсолютно невозможно. Вся шумиха вокруг искусственного сознания напрасна. Аппаратное обеспечение есть аппаратное обеспечение. Каким бы блестящим ни был компьютер в игре в шахматы, го, техасский холдем или Scotland Yard , в конце концов, он не знает, что выиграл игру, и не пережил эмоциональные американские горки соревнования. По словам Коха, «он не испытал абсолютно ничего».

«Недостаточно смотреть на систему ИИ снаружи и спрашивать, является ли она сознательной на основе ее поведения», — говорит Кох. «Нужно заглянуть под капот. Тьюринговская машина, которая кажется думающей, не является сознательной».

Согласно IIT, неспособность машины «быть чем-то», что испытывает себя в отношении внешнего мира, лежит в ее ограниченной причинной силе. Причинная сила определяется как способность системы использовать свое прошлое состояние для влияния на свое настоящее состояние и использовать свое настоящее состояние для влияния на свое будущее состояние. Чем больше система может влиять на себя, тем больше у нее причинной силы. Нейробиологи используют переменную «фи» для обозначения количества причинной силы в системе, и это измеряется путем анализа самовлияющих соединений между компонентами схемы.

Современные компьютерные процессоры просто не имеют необходимого количества самовлияющих внутренних соединений, чтобы достичь порогового значения интегрированной информации, необходимого для возникновения опыта. В отличие от человеческого мозга, который содержит примерно 86 миллиардов нейронов с 100 триллионами соединений между ними, компьютер содержит гораздо меньше замкнутых, или самовлияющих, соединений. Компьютер может вести себя с исключительным интеллектом — даже превосходящим человеческий, но это не эквивалентно способности влиять на себя: быть сознательным.

«Популярный способ резюмировать IIT — это предложение, что система является сознательной, когда целое (интеграция информации) больше, чем сумма его частей», — говорит Питтс. «IIT фокусируется больше на том, как система организована и как она влияет на себя, чем на том, что она делает. Согласно IIT, две системы могут иметь одно и то же поведение на входе-выходе, но в зависимости от того, как система организована, одна может быть сознательной, а другая — нет».

В отличие от подавляющего большинства ToC, которые являются вычислительными функциональными теориями, предполагающими, что сознание можно свести к физическим компонентам, которые его производят, «IIT начинает с сознания и работает в обратном направлении к физическому субстрату сознания. IIT не начинается с физической системы, такой как мозг или машина, и не предполагает, что ее можно достаточно сократить, чтобы привести нас к источнику сознания», — говорит Кох.

Из-за этого предположения IIT не вписывается ни в одну из традиционных философских теорий разума, таких как материализм, дуализм, идеализм или панпсихизм. «Это проблема, когда сталкиваешься с двумя тысячами лет “измов”. Они преподаются во всех философских школах и во всех книгах, и они очень хорошо установлены, но это все философия. IIT не вписывается ни в одну [философию разума]», — говорит Кох.

Несмотря на убедительную теоретическую основу IIT, некоторые нейробиологи ставят под сомнение структуру теории. IIT основана на пяти аксиомах, которые сторонники теории считают непогрешимо верными. Питтс объясняет: «Некоторые люди испытывают проблемы с тем, как начинается IIT, потому что это амбициозная теория, делающая смелые заявления. Вместо того чтобы брать данные и строить теорию, она начинается с первых принципов. Она описывает пять аксиом, которые должны быть верны для любого осознанного опыта. Затем она использует эти аксиомы для выведения постулатов, которые могут привести к прогнозам.

«Один из критиков IIT», — добавляет Питтс, «состоит в том, что вы никогда не получите экспериментальный результат, который будет оспаривать суть теории, потому что аксиомы установлены как универсально истинная отправная точка. Она слишком гибкая; она не фальсифицируема, скажут некоторые люди».

Хотя IIT предсказывает, что искусственные интеллектуальные компьютеры не обладают тем «дополнительным чем-то», что требуется для сознания (а именно причинной силой), она не исключает перспективу быстрого появления высокоинтеллектуальных машин — систем AGI, которые превзойдут людей по своим вычислительным способностям. Это важное различие, которое мы должны помнить, предостерегает Кох, оценивая, как лучше всего встретить будущее, наполненное ботами AGI: «Существует разница между интеллектом и сознанием».

Является ли сознание компьютеров неизбежной реальностью?

С другой стороны нейробиологической монеты сознания находятся вычислительные функциональные теории, такие как Теория схемы внимания и Теория глобального нейронного пространства. Обе ToC считают искусственное сознание неизбежным. Фактически, AST предполагает, что мы сами по сути являемся машинами, которые ошибочно считают себя сознательными. Сознание — это просто результат вычислений; источник этих вычислений (мозг или машина) не имеет значения, если они происходят определенным образом.

Сознание машин кажется настолько неизбежным для некоторых исследователей, что они решили проверить, существует ли оно уже. В августе 2023 года Патрик Батлин , научный сотрудник Оксфордского университета, и Роберт Лонг , научный сотрудник Центра безопасности ИИ в Сан-Франциско, опубликовали препринт на arXiv.org под названием « Сознание в искусственном интеллекте: выводы из науки о сознании ». Батлин, Лонг и 18 соавторов оценили шесть самых известных вычислительных функциональных теорий сознания и составили список индик аторных свойств сознания — свойств, необходимых для возникновения сознания у людей. Затем они искали доказательства этих индикаторов в системах ИИ.

Батлин, Лонг и их соавторы пришли к следующему выводу: «Наш анализ показывает, что ни одна из текущих систем ИИ не является сознательной, но также предполагает, что нет явных технических препятствий для создания систем ИИ, которые соответствуют этим индикаторам».

Сторонники как AST, так и GNWT довольны выводами Батлина и Лонга. Грациано объясняет, что «AST построена на предположении, что люди — биологические машины. Все, что мозг знает о себе, обязательно происходит из информации внутри этого мозга. Мы думаем, что у нас есть сознание — мы уверены в этом — потому что мозг строит самомодели или наборы информации, описывающие его таким образом. Если бы мозг не строил эти модели, мы бы ничего не знали о сознании. Создайте искусственную систему с теми же информационными структурами внутри себя, и она будет иметь те же убеждения и уверенности. Должно быть возможно (и многие работают над этим) создать ИИ, который также будет считать себя сознательным и считать, что другие люди тоже сознательны».

Уверенность Грациано в неизбежности сознания ИИ исходит из двух основных принципов AST. Во-первых, «информация, выходящая из мозга, должна была быть в этом мозге», и во-вторых, «модели мозга никогда не точны». Используя эти два принципа в качестве отправной точки, Грациано пишет , что нет никакого «люфта» — единственное логическое, методичное объяснение сознания заключается в том, что оно возникает в мозге и является, как и все остальное, что исходит из мозга, приближением к реальности.

Кох не согласен. Согласно IIT, субъективный опыт вкуса яблока не может быть воспроизведен компьютером из-за его ограниченной способности влиять на себя — «эффект» сознания не может возникнуть. «Только потому, что что-то является идеальной копией человеческого мозга, это не значит, что из него возникнет сознание», — объясняет Кох. «Существует разница между симуляцией вещи и самой вещью». Даже если компьютеры будущего станут такими же сложными, как мозг (с точки зрения самовлияющих внутренних схем), это не означает автоматическое возникновение сознания. Уровень интегрированной информации в симулированном мозге не обязательно будет соответствовать интегрированной информации в реальном мозге.

AST контратакует этот аргумент, утверждая, что субъективный опыт, о котором говорит IIT (и другие теории сознания), — это не что иное, как ментальная схема — убедительная иллюзия. Мы на самом деле ничего не переживаем субъективно, когда едим яблоко; наш мозг убеждает нас, что это так. Таким же образом искусственный интеллект скоро сможет убедить себя, через внутреннее представление поедания яблока, что он попробовал хрустящее, сочное, ярко-красное яблоко сорта Honeycrisp.

«Сознание — это свойство, которое мы приписываем другим людям и себе, и мы делаем это потому, что оно служит полезным способом прогнозирования поведения», — говорит Грациано. «AST предполагает, что мозг строит модель или упрощенное представление состояния внимания. Мы осмысливаем это состояние внимания, приписывая ему сознание. В результате мы лучше прогнозируем себя или других людей».

Поскольку AST и GNWT утверждают, что в сознании нет ничего «особенного» — это просто конечный результат последовательности вычислений, обе теории считают, что компьютеры столь же вероятно могут испытывать жизнь, как и мы. Батлин разделяет это мнение, говоря: «Я думаю, что вскоре будут созданы системы ИИ с многими из индикаторных свойств, и эти системы будут гораздо более серьезными кандидатами на сознание, чем любые из существующих в настоящее время. Эти системы, вероятно, все еще не будут сознательными, но они поставят сложные вопросы о сознании на передний план».

Возможно ли объединение теорий сознания?

В сообществе нейробиологии существует множество теорий сознания (ToC). Пока эта громоздкая группа разрозненных теорий не будет согласована или сведена к единой теории, соответствующей экспериментальным результатам, у нас не будет точного способа определить сознание машин. Чтобы начать процесс сокращения, Фонд Templeton World Charity Foundation (TWCF) финансирует серию конфликтных коллабораций, направленных на увеличение общения между исследователями сознания и уменьшение разрывов между ToC. Эта работа необходима и срочна, если мы хотим понять человеческое сознание, прежде чем компьютеры станут достаточно сложными, чтобы потенциально обрести его.

Майкл Питтс вспоминает внимание СМИ к Конференции Ассоциации научного изучения сознания в Нью-Йорке в июне 2023 года. Питтс и его коллеги, Лиад Мудрик из Тель-Авивского университета и Люсия Меллони из Института Макса Планка, представили начальные результаты первой конфликтной коллаборации, разработанной для строгой проверки двух выдающихся нейробиологических теорий сознания: Теории интегрированной информации и Теории глобального нейронного пространства.

«Мы представили наши начальные результаты на конференции в Нью-Йорке прошлым летом, и пресса неправильно поняла. Их идея заключалась в том, что “это одна теория против другой” или “одна победит, а другая проиграет”, но это не так работает», — сказал Питтс. Фокус СМИ на конфликтном характере коллабораций подогревает восприятие того, что исследования сознания разрозненны и несогласованны.

Питтс и его коллеги находятся на ранних стадиях разработки концепции, называемой селективной унификацией, с надеждой, что разрозненные теории сознания в конечном итоге можно будет объединить в одну эмпирически обоснованную ToC: «Идея селективной унификации заключается в том, что мы можем тщательно отобрать определенные аспекты теорий, поддерживаемые данными, и объединить их в одну теорию», — говорит Питтс.

Используя результаты текущих и будущих конфликтных коллабораций, он надеется устранить части теорий, которые не соответствуют экспериментальным данным. Определенные элементы теорий, которые выдержат проверку, он теоретизирует, могут быть объединены в новую ToC с прогнозами, соответствующими экспериментальным доказательствам. Питтс говорит: «Мы не хотим объединять теории в стиле Франкенштейна, но в таком виде, где мы сохраняем согласованные части и убираем части, которые экспериментально оспариваются».

Кох, хотя и также привержен проверке теорий сознания, не верит, что можно объединить отдельные элементы нескольких теорий. Он говорит: «Они просто принципиально разные. Их нельзя объединить. Они могут оба быть неверными, но оба не могут быть правильными».

Подготовка к AGI, сознательному или нет

Дебаты о природе сознания и о том, будет ли AGI в конечном итоге воспринимать жизнь так же, как мы, вероятно, не будут разрешены в ближайшее время. Тем не менее, технологические достижения стремительно приближают нас к будущему, наполненному машинами, которые будут, во всех смыслах, вести себя как мы. Как подготовиться к этому?

Кох предлагает попытаться увеличить человеческий интеллект , чтобы компенсировать надвигающийся разрыв между органическими и искусственными мозгами. Сознательные или нет, будущие ИИ будут намного умнее нас. Почему бы не направить часть технологических ресурсов на увеличение человеческого интеллекта наряду с искусственным интеллектом?

Грациано предлагает подготовиться к сознательному ИИ, заранее рассмотрев социопатию ИИ . С распространением AGI возрастет влияние и власть компьютеров. Если ИИ разовьет экстремальный интеллект без одновременного освоения сложностей человеческих социальных норм, у нас могут появиться социопатические машины, которые выберут убить нас вместо того, чтобы работать с нами.

«Большинство людей концентрируются на сознании как на личном, внутреннем деле. Но оно также играет центральную роль в человеческом социальном взаимодействии», — говорит Грациано. «Мы признаем друг друга как сознательных существ, и это позволяет нам относиться друг к другу определенным образом. Когда эта способность начинает ослабевать, возникает антисоциальное поведение. Именно тогда люди начинают убивать друг друга».

«Если мы хотим, чтобы ИИ был просоциальным, возможно, нам стоит дать ему механизмы, делающие людей просоциальными», — предлагает Грациано.

Кох предлагает последнее предложение: вместо того чтобы пытаться справиться с неизбежным превосходством AGI и возникающими из этого двусмысленностями потенциального компьютерного сознания, он советует регулировать ИИ прямо сейчас. «Мы должны установить некоторые защитные меры для ИИ, как это сделано в ЕС — это единственное, что мы можем сделать. AGI появится очень скоро. Посмотрим, как мы справимся, к лучшему или к худшему».

Невидимка в сети: научим вас исчезать из поля зрения хакеров.

Подпишитесь!