из личного архива Жанар Сабазовой

Чему Казахстану нужно научиться после принятия Цифрового кодекса

Казахстан инвестирует в искусственный интеллект и готовит Цифровой кодекс. Однако, как подчёркивает MBA in AI и PR-специалист в сфере технологий Жанар Сабазова, ключевым фактором станет не рост дата-центров, а скорость, с которой люди научатся эффективно взаимодействовать с алгоритмами и понимать их ограничения, сообщает интернет-портал El.kz.

Слово «грамотность» кажется чем-то из школьного учебника, но сегодня оно снова в центре повестки. Финансовая грамотность уже стала обязательной для взрослой жизни, цифровая для работы и общения. Следующей в этот ряд встает AI-грамотность - умение жить и работать в мире, где решения все чаще принимаются при участии алгоритмов, а не только людей. Для Казахстана это не абстрактная дискуссия, а очень конкретный вызов ближайших лет.

Летом 2024 года правительство утвердило «Концепцию развития искусственного интеллекта в Республике Казахстан на 2024–2029 годы». Документ ставит амбициозную цель: увеличить количество продуктов с использованием ИИ в пять раз и существенно нарастить долю образовательных программ, где технологии искусственного интеллекта становятся нормой, а не экзотикой. Параллельно готовится Цифровой кодекс - единый правовой каркас для всего, что связано с данными, платформами и ИИ, от права на забвение до регулирования алгоритмических решений. Президент Касым-Жомарт Токаев на международных площадках уже говорит о том, что Казахстан кратно увеличивает расходы на образование и науку, рассчитывая стать центром развития искусственного интеллекта в регионе.

На макроуровне картина выглядит обнадеживающе: есть стратегия, есть политическая воля, есть инвестиции. Но стратегии реализуют не презентации и не суперкомпьютеры, а конкретные люди - министры и айтишники, учителя и маркетологи, владельцы малого бизнеса и студенты. И именно здесь сегодня образуется разрыв: инфраструктура и законы ускоряются, а навыки и установки людей не поспевают. В результате искусственный интеллект либо превращается в модное слово в отчетах, либо в стихийный инструмент, которым пользуются «как получится», без понимания последствий.

В международных документах и исследованиях постепенно формируется общее определение того, что такое AI-грамотность. Организация экономического сотрудничества и развития (OECD) и партнеры в рамках AILit Framework описывают ее как сочетание знаний, практических навыков и ценностных установок, позволяющих человеку понимать принципы работы ИИ, критически относиться к его результатам и применять технологии ответственно. ЮНЕСКО в своих рекомендациях для систем образования подчеркивает, что ИИ-компетенции должны строиться вокруг человека: критическое мышление, этика и защита данных ставятся в один ряд с владением инструментами.

Если говорить простым языком, AI-грамотность начинается не с «промптов», а с базового понимания того, как обучаются модели, почему они уверенно выдают ошибки, что такое «галлюцинации» ИИ и откуда берутся предвзятости. К этому добавляется умение формулировать задачу так, чтобы технология действительно помогала, а не создавалась видимость деятельности, была готовность проверять и дорабатывать результат, а не перепоручать машине ответственность за решение. Третий слой - этика и обращение с данными: где проходит граница допустимого, когда мы поднимаем в облако клиентские базы, медицинские записи, внутренние документы компании.

Экономический масштаб происходящего хорошо видно из цифр. Исследование McKinsey «The Economic Potential of Generative AI» оценивает, что одни только генеративные модели могут добавлять мировой экономике от 2,6 до 4,4 трлн долларов в год по мере внедрения в ключевые функции бизнеса - от маркетинга и продаж до разработки продуктов и обслуживания клиентов. Для сравнения это сопоставимо с годовым ВВП Великобритании. Этот потенциал не реализуется автоматически. Он превращается в реальный рост только там, где люди умеют использовать ИИ не как игрушку, а как часть своей профессиональной практики.

На уровне повседневной работы картина уже изменилась. По данным совместного отчета Microsoft и LinkedIn Work Trend Index за 2024 год, 75 процентов офисных сотрудников по всему миру уже используют генеративный ИИ на работе, и использование таких инструментов почти удвоилось всего за полгода. При этом почти 80 процентов делают это через личные, а не корпоративные сервисы - люди просто приносят свои любимые нейросети в рабочий день, потому что считают, что иначе не справятся с объемом задач. Это и есть феномен «теневого ИИ», когда реальные бизнес-процессы уже зависят от неофициального использования технологий, а формальные правила, обучение и защита данных появляются постфактум, если появляются вообще.

Казахстан в этом смысле мало отличается от остального мира. В крупных и средних компаниях уже есть эксперименты с чат-ботами, автоматизацией отчетности, генерацией контента и аналитики. Консалтинговые и отраслевые отчеты по региону показывают: основная ценность ИИ сегодня рождается не от внедрения «больших систем», а от роста производительности конкретных специалистов, которые научились работать в связке «человек плюс модель». Но при отсутствии ясной рамки AI-грамотности этот рост легко оборачивается рисками: утечками данных, ошибочными решениями, подрывом доверия клиентов, ростом внутреннего напряжения между теми, кто «умеет в ИИ», и теми, кто чувствует себя лишним.

Показательно, что Европейский союз уже превратил AI-грамотность из модного термина в юридическую обязанность. В окончательном тексте Регламента ЕС об искусственном интеллекте - AI Act - есть статья 4, которая прямо требует от провайдеров и пользователей систем ИИ «в меру своих возможностей обеспечить достаточный уровень AI-грамотности сотрудников и других лиц, участвующих в эксплуатации и применении таких систем». Фактически это означает: если компания внедряет ИИ, она обязана не только купить технологии, но и обучить людей, которые с ними работают, с учетом их уровня подготовки и контекста использования.

Крупные международные компании уже строят вокруг этого целые экосистемы. Сингапурский банк DBS объявил, что выделил 13 тысяч сотрудников, которым необходимо пройти переподготовку или повышение квалификации для работы с данными и ИИ, и более 10 тысяч уже начали свои образовательные траектории. Для банка это не только вопрос эффективности, но и вопрос устойчивости бизнес-модели в условиях автоматизации. Microsoft, помимо собственной линейки продуктов Copilot, делает упор на внутренние программы обучения, потому что без понимания того, как формулировать запросы, проверять результат и защищать данные, даже самый продвинутый инструмент превращается в дорогую игрушку.

В Казахстане пока что чаще всего обсуждают ИИ через призму инфраструктуры и права: суперкомпьютерные кластеры, национальные языковые модели, Цифровой кодекс, который должен закрепить право на забвение и другие ключевые принципы цифровой эпохи. Это важная база, но без системной AI-грамотности она рискует остаться «техническим ядром» без человеческого слоя. Концепция развития ИИ до 2029 года сама подталкивает к мысли, что массовое обучение неизбежно: нельзя вырастить в пять раз больше продуктов на основе ИИ и параллельно выводить на рынок выпускников и сотрудников, которые боятся этих технологий или воспринимают их исключительно как угрозу.

Речь не идет о том, чтобы каждый школьник становился разработчиком моделей, а каждый учитель - дата-сайентистом. Скорее, о том, чтобы для разных ролей в обществе появилась своя «норма» AI-грамотности. Для руководителя бизнеса - понимание того, где ИИ реально меняет экономику компании, а где создает только иллюзию инноваций, а также базовое знание рисков, связанных с данными и регулированием. Для специалистов - практические навыки интеграции ИИ в повседневную работу: как маркетологу сохранить голос бренда, используя генерацию текста и визуала; как финансовому аналитику проверять модели прогнозирования, а не доверять красивым графикам; как сотруднику службы безопасности распознавать новые схемы мошенничества с deepfake-видео и фальшивыми сайтами. Для преподавателей и тренеров - умение встроить ИИ в учебный процесс так, чтобы он усиливал критическое мышление, а не подменял его, и чтобы студент видел в технологии инструмент, а не готовый ответ на любые вопросы.

Если попробовать сформулировать это как национальную задачу, то AI-грамотность для Казахстана - это мост между амбициозными стратегиями и реальной жизнью людей. На одной стороне - Концепция развития ИИ, Национальная платформа искусственного интеллекта, планы по развитию Министерства ИИ, Цифровой кодекс. На другой - конкретный школьник, который пишет эссе с помощью чат-бота, предприниматель, который тестирует генеративные модели для маркетинга, госслужащий, принимающий решения на основе аналитики, сгенерированной алгоритмом. От того, насколько мы успеем объяснить этим людям, как работает ИИ, что ему можно доверить, а где нужно останавливаться и перепроверять, зависит, превратится ли искусственный интеллект для Казахстана в точку экономического роста или в еще один источник недоверия, запретов и красивых, но пустых докладов.

Окно возможностей не будет открыто бесконечно. Мировая конкуренция за кадры, умеющие работать с ИИ, будет только усиливаться. Страны, которые вложатся не только в инфраструктуру и законы, но и в массовую AI-грамотность, получат преимущество на годы вперед. Казахстан уже сделал шаг, приняв концепцию развития ИИ и начав разработку Цифрового кодекса. Следующий логичный шаг - признать, что без системного обучения людей все эти документы останутся архитектурой без жильцов.

Ранее мы рассказали, почему Казахстан и Узбекистан делают ставку на цифровизацию и ИИ.