Недавно запущена академическая инициатива Critical AI Literacy (CAIL) — проект о критической ИИ-грамотности с курсами, событиями и материалами для преподавателей, студентов и практиков. Стартовая страница, описание проекта Radboud University.
Идея CAIL проста: меньше антропоморфизма и рекламных обещаний, больше чётких формулировок, прозрачных методов, обозначенных ограничений и воспроизводимых результатов.
О чём CAIL
CAIL — это совокупность опорных знаний и практик: теоретическая информатика (TCS), статистическое обучение, оптимизация, архитектуры ИИ, когнитивные основы, методология науки и социотехнический контекст. Цель — формулировать проверяемые утверждения, явно фиксировать ограничения и добиваться воспроизводимости результатов, избегая антропоморфизма и круговых рассуждений.
Почему это важно не только для разработчиков
Термин «ИИ» сегодня часто служит общим ярлыком для разнородных решений — от автодополнения до заявлений об «AGI». Без базовых принципов растёт риск неверных интерпретаций. CAIL возвращает оценки к критериям науки: что именно показано, как проверено, на каких данных и можно ли это повторить.
Параллельно ИИ‑системы быстро внедряют в образование, медицину, медиа и политику, а критические курсы пока редкость. Некритичное внедрение:
усиливает ошибки и предвзятости (в том числе против меньшинств)
подменяет обучение «чёрными ящиками» и ведёт к дескиллингу — утрате профессиональных навыков
имеет экологическую и экономическую цену (энергия, оборудование, бюджет)
создаёт институциональную зависимость от вендоров
Как отмечают в проекте CAIL, уже есть примеры реального вреда: от скандала с социальными выплатами в Нидерландах до роста энергетических затрат и нарушений авторских прав. Поскольку ИИ автоматизирует существующие предвзятости и властные структуры, он может усиливать социальную, экономическую и экологическую несправедливость. Поэтому критическая ИИ‑гра мотность нужна срочно.
Источник: страница проекта Radboud University.
Материалы по CAIL
База (прочитать в первую очередь)
Против некритического принятия технологий «ИИ» в академической среде.
Against the Uncritical Adoption of 'AI' Technologies in Academia.Guest, O., Suarez, M., Müller, B., et al. (2025). Zenodo. DOI: 10.5281/zenodo.17065099
https://zenodo.org/records/17065099Интервью (Kent Anderson & Joy Moore): — обзор мотивов и тезисов инициативы.
Блог-посты и популярные тексты
Нет богов ИИ, нет мастеров ИИ
No AI Gods, No AI Masters. Guest, O., Van Rooij, I., Müller, B., Suarez, M. (2025). https://www.civicsofttechnology.org/blog/no-ai-gods-no-ai-mastersКогнитивисты и исследователи искусственного интеллекта настоятельно призывают отказаться от "некритического внедрения" искусственного интеллекта в академической среде.
Cognitive scientists and AI researchers urge against “uncritical adoption” of AI in academia. Merchant, B. (2025).
https://www.bloodinthemachine.com/p/cognitive-scientists-and-ai-researchers/Чушь об ИИ и разрушение знаний
AI Nonsense and the Destruction of Knowledge. Van Rooij, I. (2025). https://zenodo.org/records/16905560Критическая грамотность в области искусственного интеллекта: за пределами гегемонических взглядов на устойчивое развитие.
Suarez, M., Müller, B., Guest, O., Van Rooij, I. (2025).
https://zenodo.org/records/15677840Не верьте шумихе: AGI далеко не неизбежен.
Don’t Believe the Hype: AGI is Far from Inevitable. Van Rooij, I., Guest, O. (2024).
https://www.ru.nl/en/research/research-news/dont-believe-the-hype-agi-is-far-from-inevitable
Исследования, препринты и статьи
Против некритичного внедрения технологий "ИИ" в академической среде
Against the Uncritical Adoption of “AI” Technologies in Academia.
Guest, O., Suarez, M., Müller, B., et al. (2025). Zenodo. DOI: 10.5281/zenodo.17065099
https://doi.org/10.5281/zenodo.17065099Что означает "человеко-центричный ИИ"?
What Does “Human-Centred AI” Mean?
Guest, O. (2025). arXiv. DOI: 10.48550/arXiv.2507.19960
https://doi.org/10.48550/arXiv.2507.19960Сочетание психологии с ИИ: что может пойти не так?
Pairing Psychology with AI: What Could Go Wrong?
Van Rooij, I., Guest, O. (2025). PsyArXiv.
https://osf.io/preprints/psyarxiv/aue4mПовышать грамотность, а не LLM, в образовании
Raise Literacy, Not LLMs, in Education.
Forbes, S.-H., Guest, O. (2025). Cognitive Science. DOI: 10.1111/cogs.70058
https://doi.org/10.1111/cogs.70058Метатеория классического и современного коннекционизма
Metatheory of Classical and Modern Connectionism.
Guest, O., Martin, A. E. (2024). PsyArXiv. DOI: 10.31234/osf.io/eaf2z
https://doi.org/10.31234/osf.io/eaf2zВозвращение ИИ как теоретического инструмента когнитивной науки
Returning AI as a Theoretical Tool for Cognitive Science.
Van Rooij, I., Guest, O., Adolphs, F. G., de Haan, R., Kolokolova, A., Rich, P. (2024).
Computational Brain & Behavior. DOI: 10.1007/s42113-024-00217-5
https://doi.org/10.1007/s42113-024-00217-5ИИ: панацея или непреднамеренная дегуманизация?
AI: Panacea or Unintended Dehumanization?
Van der Gaan, L., Guest, O. (2024). Journal of Human-Technology Relations. DOI: 10.59490/jhtr.2024.2.7272
https://doi.org/10.59490/jhtr.2024.2.7272О логическом выводе в мозге, поведении и искусственных нейронных сетях
On Logical Inference in Brains, Behavior, and ANNs.
Guest, O., Martin, A. E. (2023). Computational Brain & Behavior. DOI: 10.1007/s42113-022-00166-x
https://doi.org/10.1007/s42113-022-00166-x"Сдвиг Пигмалиона": как очеловечивание ИИ дегуманизирует женщин
The Pygmalion Shift: When Anthropomorphizing AI Dehumanizes Women.
Ersoy, L., Kleinherrenbrink, A., Guest, O. (2023). SocArXiv. DOI: 10.31235/osf.io/jq
https://doi.org/10.31235/osf.io/jqxb6