У США планують новий підхід до контролю розвитку штучного інтелекту — перед публічним запуском передові AI-моделі проходитимуть спеціальну перевірку на ризики.
Про це пише: 24 техно
У чому суть нових правил
Йдеться про систему оцінки ШІ-моделей до їх виходу на ринок. Держава разом із великими технологічними компаніями, зокрема Microsoft, Google DeepMind та xAI, братиме участь у перевірці потенційних ризиків нових систем.
Мета — виявити небезпечні можливості ще до того, як модель стане доступною для користувачів.
Які ризики будуть перевіряти
Серед основних напрямів контролю:
- кібербезпека та можливі злами систем
- витоки або неправильне використання даних
- потенційне зловживання технологіями
- вплив на національну безпеку
Хто проводитиме оцінку
Перевірками займатиметься спеціалізований державний центр, який працює при Національному інституті стандартів і технологій США. Він аналізуватиме нові моделі та їх поведінку в різних сценаріях використання.
Добровільний або обов’язковий формат
На першому етапі система буде добровільною — компанії самі погоджуються на тестування. Однак у США вже обговорюють можливість переходу до більш жорсткого державного регулювання в майбутньому.
Чому це з’явилося зараз
Причина посилення контролю — швидкий розвиток так званих «передових моделей ШІ», які можуть виконувати складні завдання та потенційно створювати нові ризики для безпеки.
Що це означає для індустрії
Новий підхід може:
- уповільнити вихід нових моделей
- підвищити вимоги до розробників
- зробити ринок більш контрольованим
- зменшити ризики неконтрольованого використання ШІ
Висновок
США переходять до більш системного контролю штучного інтелекту: тепер великі AI-моделі можуть проходити перевірку ще до релізу, що поступово змінює правила всієї індустрії.
