В США планируется новый подход к контролю развития искусственного интеллекта — перед публичным запуском передовые AI-модели будут проходить специальную проверку на риски.
Об этом пишет: 24 техно
В чем суть новых правил
Речь идет о системе оценки ШИ-моделей до их выхода на рынок. Государство вместе с крупными технологическими компаниями, включая Microsoft, Google DeepMind и xAI, будет участвовать в проверке потенциальных рисков новых систем.
Цель – выявить опасные возможности еще до того, как модель станет доступна пользователям.
Какие риски будут проверять
Среди основных направлений контроля:
- кибербезопасность и возможные изломы систем
- истоки или неправильное использование данных
- потенциальное злоупотребление технологиями
- влияние на национальную безопасность
Кто будет проводить оценку
Проверками будет заниматься специализированный государственный центр, работающий при Национальном институте стандартов и технологий США. Он будет анализировать новые модели и их поведение в разных сценариях использования.
Добровольный или обязательный формат
На первом этапе система будет добровольной – компании сами соглашаются на тестирование. Однако в США уже обсуждают возможность перехода к более жесткому государственному регулированию в будущем.
Почему это появилось сейчас
Причина усиления контроля — быстрое развитие так называемых «передовых моделей ИИ», которые могут выполнять сложные задачи и создавать новые риски для безопасности.
Что это значит для промышленности
Новый подход может:
- замедлить выход новых моделей
- повысить требования к разработчикам
- сделать рынок более контролируемым
- уменьшить риски неконтролируемого использования ИИ
Вывод
США переходят к более системному контролю искусственного интеллекта: теперь большие AI-модели могут проходить проверку еще до релиза, постепенно изменяющего правила всей индустрии.
