Этика и абсурдность цифрового двойника.
За последние 23 года, выдавая более одной статьи в день, я накопил достаточно большой объём текстов, чтобы обучить модель искусственного интеллекта, которая могла бы убедительно писать «как я». С помощью современных технологий несложно создать систему, способную генерировать мнения, которые будут звучать так, как будто они исходили от меня — алгоритмического профессора, который будет продолжать публиковаться ещё долго после моей смерти.
По-видимому, это следующий рубеж производительности: цифровой двойник. Стартапы, такие как Viven, и инструменты, такие как Synthesia, создают «ИИ-клонов» сотрудников и руководителей, обученных на основе их голосов, текстов, решений и привычек. Идея заманчива. Представьте, что вы можете бесконечно масштабировать себя: отвечать на электронные письма, записывать видео, писать обновления и т. д., в то время как лично вы занимаетесь чем-то другим или вообще ничем.
Но привлекательная идея не всегда будет разумной.
Мир, полный цифровых призраков
Мы вступаем в эпоху, когда профессионалы будут не только автоматизировать задачи, но и копировать свои личности. Компания может создать цифровую копию своего лучшего продавца или агента по обслуживанию клиентов. Генеральный директор может обучить виртуального двойника отвечать на запросы. Университет может использовать ИИ-версию популярного преподавателя для проведения курсов в большом масштабе.
Теоретически это звучит эффективно. На практике же это вызывает некую экзистенциальную путаницу: если копия достаточно убедительна, что происходит с человеком? Что значит «быть продуктивным», когда работу выполняет ваша цифровая версия?
Увлечение цифровым клонированием себя отражает то же самое искушение, которое веками стимулировало автоматизацию: аутсорсинг не только труда, но и идентичности. Разница заключается в том, что теперь ИИ может воспроизводить голос этой идентичности, как в буквальном, так и в переносном смысле.
Как бы я выглядел в виде алгоритма
Я мог бы легко это сделать. Введите в большую языковую модель миллионы слов, которые я написал с 2003 года — каждую статью, каждый пост, каждый комментарий — и вы получите довольно точную симуляцию меня. Вероятно, она будет иметь правильный тон, словарный запас и ритм. Она сможет писать правдоподобные статьи, может быть, даже публиковать их с той же скоростью.
Но этот проект промахнётся мимо главной своей цели.
Я пишу не для того, чтобы заполнить график или базу данных. Я пишу, чтобы думать или учить. Для меня письмо — это не акт производства, а акт размышления. Вот почему, как я недавно объяснил в статье «Почему я позволяю ИИ помогать мне думать, но никогда не позволяю ему думать за меня», я никогда не позволяю ИИ писать статьи за меня. Это не имеет смысла. Просить модель думать за меня противоречило бы самой причине, по которой я каждое утро сажусь писать.
Конечно, я постоянно использую ИИ: для обобщения источников, проверки фактов, изучения контраргументов и поиска ссылок. Но я никогда не позволяю ему заканчивать предложения за меня. Это та граница, которая позволяет моей работе оставаться моей.
Иллюзия масштабирования себя
Обещание цифровых клонов основано на том же заблуждении: что воспроизведение результата равносильно воспроизведению ценности. Сейчас компании говорят о «закупоривании экспертизы» или «масштабировании человеческого капитала», как будто личность — это производственная линия.
Но клонирование результатов — это не то же самое, что расширение компетенций. Профессиональная ценность человека — это не его слова или жесты. Это его суждения, сформированные с течением времени на основе контекста и любознательности. Модель, обученная на ваших прошлых решениях, может имитировать ваш тон, но не может предвидеть вашу эволюцию. Это окаменелость, а не путь в будущее.
ИИ-клон меня мог бы имитировать мой стиль письма в 2025 году. Но если бы я позволил ему публиковаться, он бы застыл в том году навсегда, как ежедневно обновляемый музейный экспонат.
От продуктивности к присутствию
Руководители, предприниматели и творцы должны быть осторожны в своих желаниях. «Цифровой двойник» может обрабатывать почту или записывать видео-брифинги, но он также размывает то, что делает лидерство или творчество значимыми: присутствие.
В репортаже Axios о клонах генеральных директоров многие руководители признались, что им нравятся их искусственные двойники, но они не доверяют им полностью. Клон может справляться с повторяющимися взаимодействиями, но не с эмпатией, чувством времени или нюансами — качествами, которые определяют убедительность.
Передавать эти функции алгоритму — всё равно, что отправить на встречу манекен: он присутствует технически, но отсутствует эмоционально.
Корпоративное бессмертие и этика наследования
Возникает также вопрос о том, что произойдёт, когда ваш цифровой двойник переживёт вас. Некоторые компании уже рассматривают данные сотрудников как активы, так почему бы им не относиться к их цифровым клонам таким же образом?
Представьте себе компанию, которая продолжает использовать «ИИ-версию» любимого лидера или педагога после его смерти. Это может показаться данью уважения, но на самом деле это форма корпоративной некромантии: использование интеллектуального наследия человека для увековечения бренда.
Несложно представить себе университеты, продающие «виртуальных профессоров», или корпорации, повторно использующие бывших генеральных директоров в качестве постоянных аватаров. В недавней научной статье о цифровых двойниках исследователи предупредили, что граница между «представлением» и «владением» становится всё более размытой. Кто владеет клоном? Кто извлекает из него прибыль?
Когда мы воспроизводим людей в виде объектов данных, мы рискуем превратить идентичность в инфраструктуру, в нечто, что можно лицензировать, монетизировать или переименовать по своему усмотрению.
Правильный способ использования ИИ в личном масштабе
Однако есть рациональный способ использования ИИ в масштабе: как дополнение, а не как имитацию.
Я использую ИИ каждый день как партнёра по размышлениям. Он читает черновики, предлагает структуры, рекомендует источники и критикует мою логику. Это как иметь неутомимого научного помощника, который никогда не обижается, даже если я игнорирую его советы. Но процесс рассуждений, решение о том, что сказать и как это сказать, остаётся за мной.
В этом заключается ключевое различие между использованием искусственного интеллекта и превращением в него. Когда мы передаём мышление на аутсорсинг, мы теряем обратную связь, которая делает нас людьми: постоянный процесс размышлений, пересмотра и роста.
Профессионалы, которые ответственно подходят к ИИ, расширят свой охват, не размывая свою сущность. Те, кто этого не делает, в конечном итоге обнаружат, что их собственный голос неотличим от голоса машин.
Что из этого должны извлечь компании
Для компаний, заигрывающих с клонами сотрудников или аватарами ИИ, вот чек-лист, который стоит запомнить:
Определите цель, а не имитацию. Не создавайте ИИ-двойников, способных копировать людей. Создавайте системы, которые освобождают их для выполнения более ценной работы.
Сохраняйте человека в цикле авторства. ИИ может помогать в составлении черновиков, кодировании и резюмировании, но окончательное решение должно оставаться за человеком.
Относитесь к данным как к наследию, а не как к собственности. Уважайте автономию сотрудников и создателей. Никто не должен становиться вечным цифровым активом без своего согласия.
Сосредоточьтесь на расширении возможностей, а не на автоматизации. Используйте ИИ для повышения коллективного интеллекта, а не для устранения необходимости в нём.
ИИ не пришёл, чтобы заменить человеческий опыт; он пришёл, чтобы бросить вызов тому, как мы его применяем.
Парадокс самовоспроизведения
В скором времени любой, кто располагает достаточным объёмом данных, сможет создать цифровую версию самого себя. Одни увидят в этом бессмертие, другие — излишнюю избыточность. Я же вижу в этом зеркало, проверку того, что действительно важно в человеческой работе.
Когда мой собственный цифровой двойник сможет написать достойную статью об ИИ, я не буду впечатлён. Вопрос не в том, может ли он писать. Вопрос в том, может ли он переживать о чём-либо и служит ли он мне для достижения моей цели.
И пока алгоритмы не смогут заботиться о правде, нюансах, любопытстве или цели, я буду продолжать делать то, что делал последние 23 года: садиться, думать и писать. Не потому, что я должен, а потому, что я всё ещё могу.