Учёные Лаборатории цифровой философии Санкт-Петербургского государственного университета на протяжении нескольких лет занимаются глубоким исследованием цифрового мира. Проект объединяет междисциплинарные исследования и занимается вопросами, которые задают философам представители цифровых технологий, статусом традиционных философских вопросов в сфере технологий и разработкой цифровых инструментов в изучении философии. Исследование генеративных нейронных сетей и их использование в педагогике вообще и в философии в частности – одна из сфер интересов учёных Лаборатории. Опыт применения этих сетей на семинарах показал ряд интересных особенностей использования GenAI (Generative Artificial Intelligence) в философии.
Об этике применения генеративных нейронных сетей в образовании, а также о философском чат-боте рассказывает координатор семинара «Лаборатория цифровой философии» Дмитрий Ярочкин.
Дмитрий Ярочкин
координатор семинара «Лаборатория цифровой философии» СПбГУ
GenAI дает возможность динамической адаптации к индивидуальности студента и переходе от образования, нацеленного только на результат, к тому, в котором также важен процесс достижения результата. ИИ может быть использован в образовании в целях изучения языка, помощи в написании текста, автоматической оценки, персонализации обучения, что делает вклад в доступность образования. Также ИИ может быть использован как культурный посредник между представителями разных культур, что может улучшить обстановку в группе обучающихся. Технология может помогать в проведении исследований, поддержке дискуссии в аудитории и совершенствовании навыков письма. Тем самым она развивает способность к критическому мышлению. Однако обостряется вопрос об академической честности в отношении использования технологии, потому что в некоторых аспектах даже опытному преподавателю трудно определить, была ли она использована.
Препятствия, которые осложняют использования GenAI в образовании, вызваны излишней опорой на технологию, и, как следствие, зависимостью от нее; ослаблением социального взаимодействия; проблемами неточности и искажения данных; плагиатом или скрытым плагиатом; проблемами с правами собственности; тем что человеку все-таки нужен человек, и он не может полноценно ограничиться роботом; отсутствием понимания контекста; этическими трудностями; тем что использование GenAI в образовании требует дорогостоящей инфраструктуры; и тем обстоятельством, что преподаватели и студенты должны отдельно обучаться использованию этих инструментов. Создание автоматических систем адаптации программы может привести к тому, что ученики будут восприниматься как часть нейросети, что некорректно. Наконец, нейросети обучены на корпусе текстов, который сам по себе ограничен и предвзят. Сильнее всего ограничены доменные знания, что особенно заметно в использовании нейросетей в философии.
Существенным плюсом является то, что GenAi, может позволить сосредоточиться преподавателю на более сложных навыках и доверить роботу рутинные проверки, например, грамматики и орфографии. GenAi способен улучшить коммуникацию; может быть использован для выработки новых подходов в образовании; может снабжать учеников ответами в реальном времени и помочь сделать школьное образование доступным.
Философия дает ответ на трудности, вызванные GenAI, быстрое развитие которого поставило человечество перед антропологической и этической неопределённостью. Мы больше не знаем, действуют ли старые ценности и установки в новом технологическом мире. Однако человечество, говоря об этике GenAI, не начинает с чистого листа.
В этом смысле актуальность наследия древней философии показывает, что GenAI не изменил структуру нашего мировосприятия или обучения. Он добавил необходимость переосмысления права на участие человека в решении важных вопросов. Можно сказать, что Аристотель во многом положил начало философии GenAI. Для понимания генеративного ИИ оказались полезными идеи Аристотеля о разделении формы и материи.
Учение Аристотеля о четырех причинах постулирует благо как причину бытия. Благо — это то, к чему стремятся все вещи. В этой связи возникает вопрос: должен ли искусственный интеллект также стремиться к благу? Размышляя о душе, Аристотель выделяет несколько ее частей, из которых можно выделить только рациональную часть. Термин «душа» редко используется в современном дискурсе из-за его загадочной природы. Однако при обсуждении искусственного интеллекта именно это глубокое понятие нужно учитывать. Можно утверждать, что наличие души представляет собой фундаментальное разделение между естественным интеллектом и искусственным интеллектом.
Следует также отметить, что душа не сводится только к разуму. Разум — всего лишь одна из частей души. Не менее важен вегетативный аспект. Несмотря на то, что это базовая функция, присутствующая у животных и даже растений, у искусственного интеллекта она отсутствует. В некотором смысле, ему не хватает материи жизни и, следовательно, ее формы, поскольку душа является энтелехией тела, а искусственный интеллект не имеет тела. Тем не менее, отсутствие души у искусственного интеллекта не исключает возможности этики. Если этика понимается как стремление к добру, то искусственный интеллект, как и любой другой объект в мире, подвержен этому стремлению. Согласно Аристотелю, это стремление заложено в самом объекте, а не во внешней причине. Следовательно, этика должна быть заложена в самом объекте, а не просто навязана извне этическим институтом. Такой подход приводит нас к удивительно релевантному применению философии Аристотеля в рамках разработки, основанной на тестировании этических проектных решений (EDD).
Подход, который мы разрабатываем в Лаборатории цифровой философии, влечет за собой необходимость этического тестирования искусственного интеллекта на каждом этапе его разработки, без продвижения вперед, если не был разработан подходящий тест. Этическая составляющая должна быть принципом при создании искусственного интеллекта на всех этапах, от сбора данных до развертывания приложений. Такой подход не только моральный, но и полезный в долгосрочной перспективе, поскольку концепция блага выходит за рамки экономической выгоды или сиюминутного удовольствия и связана с долгосрочными выгодами.
Говоря о важности наследия Аристотеля для GenAI хочется отметить, что со времен античности способность говорить воспринималась, как синонимичная способности мыслить. Когда человечество создало говорящие машины, оно не только облегчило себе рутинные задачи, но и получило уникальную возможность апробации идей в своеобразном аллитерированном сознании. Извечная проблема гуманитарного знания заключается в том, что в нем объект и субъект совпадают. Сознание познает само себя. Здесь же мы получаем модель сознания. Эта модель отвечает на наши запросы и может рассматриваться как философская лаборатория. Однако «говорящим орудием», а не самостоятельным субъектом. Он должен дополнять способности, а не замещать самого человека.
Несмотря на широкое освещение проблемы в литературе, наименее изученным является вопрос о том, что дает при изучении философии создание философских чат-ботов. Нам кажется, опыт создания и обучения такой нейросети дает ученикам возможность практического понимания её устройства. В дальнейшем это позволит обеспечить прозрачность нейросетей для общества, а также, благодаря возможности экспериментировать, даст ученикам нетривиальный взгляд на философию.
В качестве эксперимента мы решили попробовать обучить нейросеть с помощью философских текстов. Мы использовали модель Сбера. Предварительно она была обучена с длиной последовательности 1024 с использованием трансформаторов командой SberDevices на 80B токенах около 3 эпох. После этого модель была настроена с размером контекста 2048. Общее время обучения заняло около одной недели на 32 GPU.
Необходимость использования отдельной русской модели обусловлена слабой представленностью русского языка в других языковых моделях. Затем мы приступили к последовательному обучению этой модели. На тексте Платона она прошла одну эпоху обучения. На каждом из этапов мы просили модель генерировать ответы к одним и тем же запросам: «сознание – это»; «знание – это»; «обучение – это»; «сущность философии – это...»; «идея – это»; «подлинная мудрость – это»; «душа – это»; «справедливость – это». Эти формулировки мы получили от другой модели после того, как изложили ей сущность эксперимента.
На Python мы написали простой код, который использует библиотеку Transformers для генерации текста, обучая модель на примере текстов Платона. Он загружает языковую модель и токенизатор, преобразует начальный текст в числовой формат и генерирует ответ с заданными параметрами.
Для дообучения мы использовали полное собрание сочинений Платона. Из формата pdf перевели его в текстовый формат при помощи скрипта на Python. Затем мы вручную удалили из файла «corpus.txt» все, что не является текстом Платона: содержание, примечания, выходные данные и тому подобное. Выбор текста Платона, а не Аристотеля, о котором мы говорили, в большей степени обусловлен исторической последовательностью и желанием в дальнейшем создать условия для диалога двух философских систем.
В качестве примера приведем генерацию определения «подлинная мудрость». Базовая модель, не прошедшая обучение, генерирует такой текст:
«Подлинная мудрость — это, как если бы ты был мальчиком, а у тебя не было друзей. А ведь есть и такие люди которые могут в чем-то помочь человеку! Может кто-нибудь знает где можно найти такой сайт? Спасибо большое!!! И ещё я хочу спросить совета: у меня тоже была такая проблема с моим парнем... он мне пишет, что мы встречаемся на этой неделе, но при этом очень сильно любит другую девушку.... Я ему пишу чтобы сказал чтоб она бросила его или бросил».
Модель, которая прошла обучение всего в 4 эпохи, выдает другой результат:
«Подлинная мудрость — это находиться в постоянном общении с самим собой, своим телом и другими людьми. Таков смысл слова «мудрость». Мудрый человек знает то же самое; он не думает о том что-то одно или другое из того, как бы отдельно от другого человека: у него есть только один ум – единодушие во всем этом (например) для себя самого. И так обстоит дело до тех пор, пока душа остается свободной по отношению к самому себе самой».
Как мы это делали?
При написании этого кода мы вдохновлялись статьей.
Код мы дополнили и переработали.
Проект состоит из 3 этапов:
1. Подготовка данных
2. Дообучение модели на данных
3. Публикация модели на hugging face
4. Создание приложения, которое использует модель как api.
1. Подготовка данных
1.1. Покупаем полное собрание сочинение Платона в формате pdf
1.2. Переводим pdf в txt
1.3. Проверочный текст мы нашли в формате txt на сайте одной из библиотек. Будем надеяться, что Платон не против. Книги он все равно не любил.
# Этот код предназначен для извлечения текста из всех PDF-файлов в указанной папке и сохранения их в один текстовый файл. Чтобы использовать # Убедитесь, что у вас установлены библиотеки PyPDF2 и os.
# Измените переменную folder_path на путь к вашей папке с PDF-файлами.
# Запустите скрипт. Все тексты из PDF будут объединены и сохранены в файл corpus.txt. # этот код я запускал на локальной машине.
import os # Импортируем модуль os для работы с файловой системой import PyPDF2 # Импортируем библиотеку PyPDF2 для работы с PDF-файлами
def pdf_to_text(pdf_path):
"""Извлекает текст из одного PDF файла."""
text = '' # Инициализируем пустую строку для хранения текста
with open(pdf_path, 'rb') as pdf_file: # Открываем PDF файл в бинарном режиме pdf_reader = PyPDF2.PdfReader(pdf_file) # Создаем объект PdfReader для чтения файла for page_num in range(len(pdf_reader.pages)): # Проходим по всем страницам PDF
page = pdf_reader.pages[page_num] # Получаем текущую страницу
text += page.extract_text() or '' # Извлекаем текст; если не удалось, добавляем пустую строку return text # Возвращаем извлеченный текст
def convert_all_pdfs_in_folder(folder_path, output_txt):
"""Конвертирует все PDF файлы в указанной папке в один текстовый файл.""" all_text = '' # Инициализируем пустую строку для хранения текста всех PDF
# Перебираем все файлы в указанной папке
for filename in os.listdir(folder_path): # Получаем список файлов в папке if filename.endswith('.pdf'): # Проверяем, является ли файл PDF
pdf_path = os.path.join(folder_path, filename) # Формируем полный путь к файлу print(f'Converting {pdf_path}...') # Выводим сообщение о начале конвертации
all_text += pdf_to_text(pdf_path) + '\n' # Добавляем извлеченный текст и перевод строки
# Записываем объединенный текст в выходной файл
with open(output_txt, 'w', encoding='utf-8') as txt_file: # Открываем выходной файл в режиме записи txt_file.write(all_text) # Записываем весь текст в файл
if name == " main ": # Проверяем, запущен ли скрипт напрямую
folder_path = 'pdf' # Задаем путь к папке с PDF файлами (измените при необходимости) output_txt = 'corpus.txt' # Задаем имя выходного текстового файла
convert_all_pdfs_in_folder(folder_path, output_txt) # Вызываем функцию конвертации
print("All PDFs converted to corpus.txt successfully!") # Выводим сообщение об успешном завершении
2. Дообучение модели на данных, полученных на этапе 1
# Первая команда (!pip uninstall transformers):
# Удаляет библиотеку transformers из вашей среды Python. Это может быть полезно, если вы хотите избавиться от устаревшей версии или исправить проблемы с установкой
# Вторая команда (pip install git+https://github.com/huggingface/transformers):
# Устанавливает последнюю версию библиотеки transformers непосредственно из репозитория на GitHub. Это позволяет получить доступ к самым новым функциям и исправлениям, которые еще не были выпущены в стабильной версии.
!pip uninstall transformers # Удаляем установленную библиотеку transformers
pip install git+https://github.com/huggingface/transformers # Устанавливаем библиотеку transformers из репозитория GitHub
# Commented out IPython magic to ensure Python compatibility.
# # %%bash - специальная команда, используемая в средах, поддерживающих магические команды, таких как Jupyter Notebook. Она указывает, что все последующие строки кода должны выполняться в оболочке Bash.
%%bash
git clone https://github.com/huggingface/transformers # Клонируем репозиторий transformers с GitHub
cd transformers # Переходим в директорию клонированного репозитория
pip install . # Устанавливаем библиотеку из текущей директории
# Создадим папку, где будет храниться наша будущая модель
!mkdir models/
# Скачаем ruGPT3 и скрипт обучения
!wget https://raw.githubusercontent.com/sberbank-ai/ru-gpts/master/pretrain_transformers.py # Скачиваем скрипт для предобучения модели
!wget https://raw.githubusercontent.com/sberbank-ai/ru-gpts/master/generate_transformers.py # Скачиваем скрипт для генерации текста
!wget https://raw.githubusercontent.com/huggingface/transformers/main/examples/pytorch/language-modeling/run_clm.py # Скачиваем скрипт для обучения языковой модели
# установка различных библиотек NVIDIA для работы с CUDA,
# включая библиотеки для линейной алгебры, управления памятью и выполнения параллельных вычислений,
# что позволяет эффективно использовать графические процессоры (GPU) для вычислений в Python.
!pip install nvidia-cublas-cu12==12.1.3.1
!pip install nvidia-cuda-cupti-cu12==12.1.105
!pip install nvidia-cuda-nvrtc-cu12==12.1.105
!pip install nvidia-cuda-runtime-cu12==12.1.105
!pip install nvidia-cudnn-cu12==8.9.2.26
!pip install nvidia-cufft-cu12==11.0.2.54
!pip install nvidia-curand-cu12==10.3.2.106
!pip install nvidia-cusolver-cu12==11.4.5.107
!pip install nvidia-cusparse-cu12==12.1.0.106
!pip install nvidia-nccl-cu12==2.20.5
!pip install nvidia-nvtx-cu12==12.1.105
# установка библиотек datasets и evaluate, которые используются для работы
# с наборами данных и оценки моделей машинного обучения в экосистеме Hugging Face.
!pip3 install datasets
!pip3 install evaluate
# скачивание двух текстовых файлов: corpus.txt и validation_corpus.txt из репозитория на GitHub см этап 1 подготовка данных.
!wget https://raw.githubusercontent.com/yarov475/dosocratik/master/corpus.txt
!wget https://raw.githubusercontent.com/yarov475/dosocratik/master/validation_corpus.txt
# Этот код запускает процесс обучения языковой модели с использованием скрипта run_clm.py,
# задавая различные параметры, такие как путь к предобученной модели, файлы с данными, настройки обучения и оптимизации,
# а также параметры сохранения результатов.
!python run_clm.py \ # Запускаем скрипт run_clm.py для обучения языковой модели
--model_name_or_path sberbank-ai/rugpt3small_based_on_gpt2 \ # Указываем путь к предобученной модели ruGPT3 small на основе GPT-2
--train_file corpus.txt \ # Указываем файл с данными для обучения (corpus.txt)
--validation_file validation_corpus.txt \ # Указываем файл с данными для валидации (validation_corpus.txt)
--per_device_train_batch_size 2 \ # Устанавливаем размер батча для обучения на каждом устройстве (GPU) равным 2
--block_size 2048 \ # Устанавливаем размер блока текста для обработки равным 2048 токенам
--dataset_config_name plain_text \ # Указываем конфигурацию набора данных как простой текст
--do_train \ # Указываем, что необходимо выполнить обучение модели
--gradient_accumulation_steps 4 \ # Устанавливаем количество шагов накопления градиентов равным 4
--gradient_checkpointing True \ # Включаем контроль градиентов для экономии памяти
--fp16 True \ # Включаем использование половинной точности (FP16) для ускорения обучения и снижения потребления памяти
--optim adafactor \ # Устанавливаем оптимизатор AdaFactor для обучения модели
--num_train_epochs 10 \ # Устанавливаем количество эпох обучения равным 10
--output_dir models/essays \ # Указываем директорию для сохранения обученной модели и результатов
--overwrite_output_dir \ # Разрешаем перезапись содержимого выходной директории, если она уже существует
--evaluation_strategy steps # Устанавливаем стратегию оценки модели на основе количества шагов
3. Публикация модели
# Команда !pip install huggingface_hub устанавливает библиотеку huggingface_hub, которая позволяет взаимодействовать с платформой
# Hugging Face для загрузки и публикации моделей, наборов данных и других ресурсов, обеспечивая удобный доступ к инструментам и
# функционалу для работы с моделями машинного обучения.
!pip install huggingface_hub
from huggingface_hub import login # Импортируем функцию login из библиотеки huggingface_hub
login(token='hf_токен_которй_вы_создали_в_личном_кабинете_на_hugging_face') # Выполняем вход в Hugging Face с использованием указанного токена
from huggingface_hub import HfApi # Импортируем класс HfApi из библиотеки huggingface_hub для работы с API Hugging Face
api = HfApi() # Создаем экземпляр класса HfApi для взаимодействия с Hugging Face Hub
api.upload_folder( # Вызываем метод upload_folder для загрузки содержимого папки на Hugging Face Hub
folder_path='models/essays', # Указываем путь к директории с моделью, которую нужно загрузить
repo_id='DmitryYarov/plato_2024_1.0', # Указываем идентификатор репозитория, включая имя пользователя и название модели.
# В моем случае название "DmitryYarov/plato_2024_1.0" в таком виде она появиться на hugging face. d Dfitv <логин>/<название модели>
repo_type='model' # Указываем тип репозитория как 'model'
)
теперь модель опубликована на https://huggingface.co/DmitryYarov/plato_2024_1.0 ее можно качать, использовать как api, ставить лайки
Это описание модели на сайте hugging face
essays
This model is a fine-tuned version of [sberbank-ai/rugpt3small_based_on_gpt2](https://huggingface.co/sberbank-ai/rugpt3small_based_on_gpt2) on a plato_full_russ dataset It achieves the following results on the evaluation set:
- Loss: 3.1957
- Accuracy: 0.3682
Training procedure
Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 5e-05
- train_batch_size: 2
- eval_batch_size: 8
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use adafactor and the args are: No additional optimizer arguments
- lr_scheduler_type: linear
- num_epochs: 10.0
- mixed_precision_training: Native AMP
Training results
Training Loss -- 2.7233
Epoch -- 7.6046
Step -- 500
Validation Loss -- 3.1864
Accuracy -- 0.3682
Framework versions
- Transformers 4.46.0.dev0
- Pytorch 2.4.1+cu121
- Datasets 3.0.1
- Tokenizers 0.20.1
4. Создание приложения, которое использует модель как api.
# этот код я запустил на локальной машине. Убедитесь, что установлены: transformers
import tkinter as tk # Импортируем библиотеку tkinter для создания графического интерфейса
from tkinter import scrolledtext # Импортируем компонент прокручиваемого текста из tkinter
from transformers import pipeline # Импортируем функцию pipeline из библиотеки transformers для работы с моделями
# Загрузка модели из Hugging Face Hub
model_name = "DmitryYarov/plato_2024_1.0" # Указываем идентификатор модели (замените на свой)
pipe = pipeline("text-generation", model=model_name) # Создаем пайплайн для генерации текста с использованием указанной модели
def generate_text(): # Определяем функцию для генерации текста
prompt = prompt_entry.get("1.0", tk.END).strip() # Получаем ввод пользователя из текстового поля
if prompt: # Проверяем, что ввод не пустой
# Генерируем текст с помощью модели
output = pipe(
prompt,
repetition_penalty=2.0, # Устанавливаем штраф за повторения
no_repeat_ngram_size=2, # Запрещаем повторение биграмм
max_length=200, # Максимальная длина генерируемого текста
num_return_sequences=3, # Количество генерируемых последовательностей
num_beams=5, # Число лучей для поиска (beam search)
do_sample=True, # Включаем выборку для генерации
temperature=0.7, # Температура для случайности в генерации
top_k=50, # Ограничиваем выборку до топ-K вероятностей
top_p=0.95, # Ограничиваем выборку до топ-P вероятностей (nucleus sampling)
truncation=True # Обрезаем текст, если он превышает максимальную длину
)
# Очищаем предыдущий вывод
output_text.delete(1.0, tk.END)
# Отображаем сгенерированные тексты
for i, response in enumerate(output): # Перебираем все сгенерированные ответы
output_text.insert(tk.END, f"Response {i+1}: {response['generated_text']}\n\n") # Вставляем ответ в текстовое поле
# Создаем главное окно приложения
app = tk.Tk()
app.title("Philosophical Text Generator") # Устанавливаем заголовок окна
app.geometry("600x400") # Устанавливаем размеры окна
# Создаем метку и текстовое поле для ввода запроса
prompt_label = tk.Label(app, text="Enter your prompt:")
prompt_label.pack(pady=(10, 0)) # Добавляем отступы для эстетики
prompt_entry = scrolledtext.ScrolledText(app, wrap=tk.WORD, width=70, height=10)
prompt_entry.pack(pady=(5, 10)) # Добавляем отступы для эстетики
# Создаем кнопку для генерации текста
generate_button = tk.Button(app, text="Generate", command=generate_text)
generate_button.pack(pady=(5, 10)) # Добавляем отступы для эстетики
# Создаем метку для отображения вывода
output_label = tk.Label(app, text="Generated Responses:")
output_label.pack()
# Создаем текстовое поле для отображения вывода
output_text = scrolledtext.ScrolledText(app, wrap=tk.WORD, width=70, height=10)
output_text.pack(pady=(5, 10)) # Добавляем отступы для эстетики
# Запускаем приложение
app.mainloop()
Результатом запуска кода является простое декстоп-приложение, представляющее собой интерфейс для работы с моделью.
Предвзятости:
Культурная предвзятость:
Модель может отражать предвзятости, присутствующие в переводах текстов Платона. Поскольку переводы могут значительно различаться в зависимости от интерпретации переводчика, модель может непреднамеренно отдавать предпочтение определенным философским трактовкам.
Предвзятость представления:
Если обучающие данные преимущественно содержат определённые переводы или интерпретации, модель может не иметь разнообразия в своих ответах, потенциально игнорируя альтернативные философские точки зрения.
Этические дилеммы:
Неправильная интерпретация философских идей: Модель может генерировать ответы, которые искажают идеи Платона или представляют их вне контекста. Это вызывает опасения относительно точности и целостности философского дискурса.
Ответственность за сгенерированный контент:
Существует этический вопрос о том, кто несет ответственность за контент, генерируемый моделью. Если она производит вредную или вводящую в заблуждение информацию, вопрос ответственности становится значительным.
Проблема авторского права:
Остается спорным, можем ли мы использовать чужие тексты для обучения модели. Можем ли распространять обученную модель. Поэтому мы сделали датасет с текстом Платона приватным а не публичным, но саму модель считаем необходимым оставить публичной.
Ограничения:
Понимание контекста:
Хотя модель может генерировать текст на основе паттернов в обучающих данных, ей может не хватать истинного понимания философских концепций, что приводит к поверхностным или бессмысленным выводам.
Зависимость от обучающих данных:
Качество и полнота обучающих данных напрямую влияют на производительность модели. Если определенные диалоги или темы из произведений Платона недостаточно представлены, это ограничит способность модели генерировать релевантные ответы.
Выводы
Технология чат-бота на основе GenAI может восприниматься, как воплощение коммуникативного действия – объединенной человеческой речью. Работа над чат-ботом-философом иллюстрирует тот факт, что философия часто нарушает «правила» языковой игры. По этой причине обучение GenAI философии — это трудная, но перспективная задача.
В процессе обучения нейросети студент совмещает гуманитарное и техническое знание, что позволяет ему создать прозрачный GenAI, которым может пользоваться другой человек. Формирование запросов, разработка метрики оценки генераций являются захватывающей педагогической техникой. По результату неформального опроса участников изучение нейросетей усилило их мотивацию в изучении философии. Это также возможность введения экспериментального метода в философию, что превращает чат-бот в «философскую лабораторию».
Философские штудии, подобны схоластике. Они создают пространство для свободного взаимодействия и глубокого изучения искусственного интеллекта, в отличие от прагматичного подхода, который стремится к его использованию. Это позволяет нам не просто создавать искусственный интеллект, а формировать мудрость, которая может изменить наше восприятие мира.
Мы считаем, что натренированный философский GenAI должен быть хорош и в других сферах. Помимо гуманитарных, такой ИИ может генерировать неожиданные решения и в других сферах. Поскольку философия наиболее общая из наук, такой подход может приблизить человечество к созданию общего интеллекта и стать источником прорыва в различных сферах.
Очевидным ограничением исследования является небольшой размер модели. Это имеет как плюсы, так и минусы. Среди плюсов – скорость обучения, доступность экспериментов, как финансовая и временная, так и экологическая; простота использования, что делает ее целесообразной для работы в учебной группе среди непрофессиональных программистов. Однако такая модель не позволяет создать длинный сложный и связанный текст и раскрыть мудрость текстов, на которых она была обучена.