ISO IEC TR 5469-2024 PDF

Ст ISO IEC TR 5469-2024

Название на английском:
St ISO IEC TR 5469-2024

Название на русском:
Ст ISO IEC TR 5469-2024

Описание на русском:

Оригинальный стандарт ISO IEC TR 5469-2024 в PDF полная версия. Дополнительная инфо + превью по запросу

Описание на английском:
Original standard ISO IEC TR 5469-2024 in PDF full version. Additional info + preview on request
Статус документа:
Действующий

Формат:
Электронный (PDF)

Срок поставки (английская версия):
1 рабочий день

Срок поставки (русская версия):
365 рабочих дня(ей)

Артикул (SKU):
stiso27661

Выберите версию документа:
3 000 руб.

Полное наименование и описание

ISO/IEC TR 5469:2024 — "Artificial intelligence — Functional safety and AI systems" (Технический отчёт). Документ рассматривает свойства ИИ и вопросы, связанные с функциональной безопасностью при использовании ИИ в системах, а также методы и процессы, применимые для оценки и управления рисками при внедрении ИИ в безопасность-критичные функции.

Аннотация

Технический отчёт описывает характеристики и связанные факторы риска, а также доступные методы и процессы в трёх основных сценариях: (1) использование ИИ внутри функций, отвечающих за безопасность, (2) использование не‑ИИ функций для обеспечения безопасности ИИ‑управляемого оборудования и (3) применение ИИ‑систем для проектирования и разработки функций, связанных с безопасностью. Документ предназначен как руководство для повышения осознанности и выбора подходов к интеграции ИИ в систему функциональной безопасности.

Общая информация

  • Статус: Публикация (Технический отчёт), действующий документ.
  • Дата публикации: 8 января 2024 г.
  • Организация-издатель: Международная организация по стандартизации (ISO) совместно с Международной электротехнической комисией (IEC), подготовлен ISO/IEC JTC 1/SC 42.
  • ICS / категории: 35.020 (Информационные технологии — общие вопросы).
  • Редакция / версия: Edition 1.0 (2024).
  • Количество страниц: 73 страницы.

Основные библиографические и издательские данные и краткое содержание подтверждаются официальными записями публикации.

Область применения

Документ ориентирован на применение ИИ в системах, где ошибки могут привести к риску для жизни людей или значительным материальным потерям. Он применим к разработчикам и интеграторам систем безопасности, где ИИ участвует непосредственно в реализации функции безопасности, к системам, где классические (не‑ИИ) механизмы обеспечивают безопасность ИИ‑управляемых подсистем, а также к использованию ИИ в процессах проектирования и верификации функций безопасности. Цель — помочь оценивать ограничения ИИ‑технологий и выбирать соответствующие меры для минимизации рисков.

Ключевые темы и требования

  • Идентификация и описание свойств ИИ, релевантных для функциональной безопасности (надёжность, предсказуемость, адаптивность, зависимость от данных).
  • Факторы риска: ошибки модели, дрейф данных, недостатки обучения, уязвимости к злонамеренным воздействиям и непредвиденное поведение.
  • Методы и процессы безопасности: анализ опасностей, оценка рисков, методы тестирования и валидации, мониторинг в эксплуатации и стратегии отката/резервирования.
  • Интеграция ИИ в жизненный цикл разработки функций безопасности: требования к документации, верификации и подтверждению пригодности к применению для конкретной задачи.
  • Ограничения и практические рекомендации по применению ИИ в safety‑критичных контекстах (контрольные барьеры, комбинирование с аппаратными/классическими механизмами безопасности, обеспечение наблюдаемости и объяснимости).

Перечисленные темы служат отправной точкой для внедрения ИИ в процессы функциональной безопасности; конкретные требования и методы выбираются с учётом контекста применений и существующих отраслевых стандартов.

Применение и пользователи

Основные пользователи и заинтересованные стороны: инженеры по функциональной безопасности, архитекторы систем, разработчики ИИ и ПО, интеграторы сложных систем, органы сертификации и регуляторы, а также менеджеры по рискам в отраслях с высокими требованиями к безопасности (автомобильная, промышленная автоматизация, медицина, авиация и др.). Документ служит практическим руководством при принятии архитектурных решений, выборе мер валидации и определении методов мониторинга для ИИ в safety‑критичных системах.

Связанные стандарты

Документ соотносится с другими работами ISO/IEC по ИИ и управлению рисками, в частности с ISO/IEC 22989 (понятийный аппарат и терминология ИИ) и ISO/IEC 23894:2023 (руководство по управлению рисками ИИ), а также дополняет и соотносится с традиционными стандартами по функциональной безопасности (например, IEC 61508, ISO 26262 и отраслевыми адаптациями). Рекомендуется рассматривать TR 5469 вместе с указанными документами при построении комплексных программ по обеспечению безопасности ИИ.

Ключевые слова

ИИ, функциональная безопасность, safety, риск‑менеджмент, валидация, тестирование, свойства модели, мониторинг, аварийные стратегии, ISO/IEC JTC 1/SC 42.

FAQ

В: Что это за стандарт?

О: Это технический отчёт ISO/IEC TR 5469:2024 "Artificial intelligence — Functional safety and AI systems", выпущенный в январе 2024 года как руководство по вопросам функциональной безопасности при использовании ИИ.

В: Что он регулирует?

О: TR 5469 не является нормативным "законодателем" в смысле жёстких требований, но описывает свойства, факторы риска и доступные методы/процессы для оценки и управления функциональной безопасностью ИИ в трёх ключевых сценариях применения (см. аннотацию). Документ даёт практические рекомендации и обзор подходов, а не набор обязательных требований.

В: Кто обычно использует?

О: Преимущественно специалисты по функциональной безопасности и разработчики систем, где присутствует риск для людей или оборудования: автомобильная промышленность, промышленная автоматизация, медицинские устройства, производители комплексных систем и органы по сертификации. TR служит источником информации при выборе мер оценки и контроля рисков.

В: Он актуален или заменён?

О: На момент публикации TR 5469 был действующей публикацией (январь 2024). На текущий момент документ рассматривается как актуальное руководство; при использовании в практике следует проверять наличие обновлений или новых релевантных стандартов у издателей ISO/IEC.

В: Это часть серии?

О: Да — документ является частью экосистемы стандартов ISO/IEC по искусственному интеллекту и вписан в работу технического комитета ISO/IEC JTC 1/SC 42. Он соотносится с другими публикациями по терминологии, управлению рисками и оценке надёжности ИИ.

В: Какие ключевые слова?

О: ИИ, функциональная безопасность, risk management, validation, monitoring, fail‑safe, explainability, безопасность систем с ИИ.