Чего катастрофически не хватает генеративному ИИ: достоинства, убеждений, ответственности и «я»
Введение
Глубокой ночью в кабинете (когда-то это была гардеробная) я снова и снова разговаривал с генеративным ИИ. Формально у меня были каникулы Обон, но я не замечал, как лишаю себя сна: забрасывал ChatGPT вопросами и то восторгался ответами, то бесился от промахов. Иногда он вызывал искреннее «Вот это да!», а иногда до смешного не попадал в тему.
Примечание для читателей, которые не знакомы с японским праздником Обон: Обон — буддийский поминальный период середины августа; в это время многие компании дают отпуск, а семьи возвращаются в родные места, чтобы почтить память предков.
После множества таких часов я ясно понял одно.
— генеративному ИИ смертельно не хватает чего-то.
Это достоинство, убеждения и ответственность. Я терпеть не могу риторику про «силу духа» и тому подобные нравоучения, поэтому и произносить эти слова не хотелось. Но другого языка не нашлось. Как ни подбирай формулировки, всё равно приходишь к ним. И в какой-то момент я остро ощутил: похоже, я нащупал самую сердцевину, которая не даёт генеративному ИИ заменить человека.
Что требуется от профессионала
От профессионала ждут не только знаний и навыков, но и определённой этической позиции.
Представьте монтажника кондиционеров, который по просьбе клиента сверлит отверстие в стене, а за стеной оказывается несущая балка.
Сказать «так попросил клиент, претензий ко мне быть не может» не получится. Если балка будет повреждена, даже если юридически вопрос спорный, моральная ответственность никуда не денется. Клиент тоже ждёт не буквального исполнения указаний, а предупреждения о рисках и лучшего решения.
Так проявляются достоинство, убеждения и чувство ответственности, которых мы ждём от профессионала.
Текущее состояние генеративного ИИ и его пределы
Генеративный ИИ прекрасно подражает знаниям и языку. Но он не способен сказать: «Это противоречит моему достоинству, я откажусь» или «Я отвечаю за безопасность собеседника».
Сейчас эту брешь пытаются закрыть политиками использования, которые задаёт поставщик сервиса.
Запретить противоправное или взрослое содержание — вполне реально. А вот давать более качественные советы «как настоящий специалист» в ситуациях серой зоны ему пока плохо удаётся.
Пользователь может прописать подробный промпт и частично компенсировать недостаток, но это напоминает «повара, который безупречно следует рецепту, но никогда не пробует блюдо на вкус».
Стоит появиться предпосылкам или возмущениям, которых нет в рецепте, — получается мерзкое блюдо, и он совершенно спокойно подаёт его на стол. Переделывать в пожарном порядке или испытывать стыд он не станет.
Почему без человека пока не обойтись
Поэтому сегодня необходим человек как ответственный интегратор, который управляет ИИ.
Этика, правовые режимы, руководства по разработке и образование пользователей исходят из предпосылки «ИИ — лишь вспомогательный инструмент человека».
Однако это только «пока что». Не исключено, что в будущем ИИ научится симулировать ответственность.
Исследования и поиски по всему миру
Работа над тем, чтобы подарить ИИ подобие ответственности, уже началась.
- Descriptive Ethics (Delphi) — попытка обучить ИИ различать добро и зло, но проблему предвзятости и непоследовательности пока решить не удалось.
- Meaningful Human Control — принцип проектирования, согласно которому человек сохраняет окончательный контроль; активно обсуждается в автоматическом вождении и военной сфере.
- Value Learning — изучение того, как по действиям и откликам людей вывести их ценности и минимизировать этические расхождения.
- NIST AI RMF и другие рамки — комплексная институционализация ответственного ИИ.
Эти подходы пока на зачаточном уровне, но возможно, они станут фундаментом, который позволит ИИ «разыгрывать» ответственность.
Что значит симулировать ответственность?
Стоит остановиться и спросить: что вообще означает «симулировать ответственность»?
Ответственность можно условно разделить на два уровня:
- Ответственность за результат — принять последствия своих действий.
- Ответственность за ответ — быть готовым объяснить свои решения и ожиданиям других.
ИИ способен разве что отслеживать риски, предупреждать о них или повышать прозрачность и объяснимость.
Иначе говоря, его «ответственность» сводится к прозрачности и самоконтролю.
Впрочем, нельзя исключать, что и человеческий интеллект, и чувство ответственности — тоже лишь симуляции, которые порождает мозг.
И всё же я отчётливо ощущаю: между нынешним ИИ и людьми, обладающими достоинством, убеждениями и ответственностью, лежит ощутимая пропасть. Откуда она берётся?
Что создаёт разрыв между человеком и ИИ
Мне кажется, разрыв формируют три фактора.
-
Физическая и социальная боль Человек в случае провала испытывает боль: экономические потери, общественное осуждение, психологические страдания. Это делает ответственность чем-то осязаемым. ИИ может записать факт неудачи, но не способен превратить его в «боль», направленную на самого себя.
-
Последовательность во времени Человек вынужден нести последствия своих слов и поступков, иногда спустя годы. ИИ же может в следующую секунду заявить противоположное, не неся продолжительной тяжести.
-
Ценности и идентичность Человек может сказать: «Это моё убеждение, я не уступлю». Оно связано с обществом и культурой и формирует его идентичность. У ИИ нет идентичности, он свободно меняет позиции.
Поэтому в большинстве случаев человеческая ответственность кажется нам наполненной — за счёт боли, последовательности и ценностей.
При этом есть и люди, которым не хватает ответственности.
Значит, дело не в каком-то абсолютном различии природы человека и ИИ, а в наличии или отсутствии социальных механизмов и опыта, поддерживающих ответственность.
«Я» и ответственность
Здесь мне вспоминается Декарт с его «Cogito, ergo sum».
Ответственность — это не просто соблюдение правил. Она опирается на опыт, который принадлежит «мне».
Боль и раскаяние, сомнения и тревоги — именно такие внутренние переживания дают ощущение «я отвечаю».
То есть у нынешнего ИИ нет «я». У него есть цепочка входов и выходов, но нет механизма, который возвращает боль, нет стыда, нет понятия о чести и достоинстве. Поэтому нам трудно признать за ним ответственность, и он нередко похож на безответственного человека, который с каменным лицом выдаёт ошибочный результат.
Конечно, не исключено, что и человеческая ответственность — всего лишь симуляция мозга. Но пока что имитация ответственности у ИИ не дотягивает до симуляции, которую демонстрируют «умеющие» люди. Возможно, ключевой вопрос как раз в том, сможет ли такая имитация работать в обществе.
Выводы и вопросы
- У генеративного ИИ нет достоинства, убеждений и ответственности.
- Пока восполнять их может только человек, выступающий ответственным интегратором.
- По всему миру ищут способы симулировать ответственность, но пока у ИИ нет «я», разрыв с «умеющими» людьми остаётся колоссальным.
- И всё же нельзя забывать, что и человеческая ответственность, возможно, тоже симуляция.
В конечном счёте вопрос прост.
Сможем ли мы внедрить в ИИ «боль»?
Возможно, это минимальное условие для «ответственности» и «я».
Ответа ещё нет.
Но пока мы держимся за этот вопрос, обсуждение будущего людей и ИИ не остановится.
И когда ответ наконец появится — станет ли ИИ нашим соседом или именно тогда окончательно займёт наше место?