NEA изучает применение искусственного интеллекта в ядерном регулировании

Рабочая группа NEA по новым технологиям провела семинар 25–26 марта, сосредоточившись на том, как искусственный интеллект может применяться для надзора за соблюдением требований и внутренних операций в ядерных органах власти.
Резюме

  • Семинар NEA изучил реальные прикладные применения ИИ в ядерном регулировании, при этом тематические исследования из 15 стран—членов демонстрировали текущие инструменты и сценарии использования
  • Регуляторы подчеркнули необходимость структурированных рамок для ИИ, четких показателей успешности и человеческого надзора при принятии решений
  • Модели ИИ локального размещения (on-premise) стали ключевым вариантом для решения проблем кибербезопасности, суверенитета данных и защиты данных

Обсуждения были сосредоточены на практическом внедрении, а не на теории: участники рассматривали, как существующие инструменты могут быть встроены в рабочие процессы регулирования.

На мероприятии встретились ядерные регуляторы и специалисты по ИИ из 15 стран—членов NEA, а также представители международных организаций. Участники поделились тематическими исследованиями, демонстрирующими ИИ-системы, которые уже используются или находятся в разработке в регуляторных органах.

Примеры, представленные в ходе сессий, включали генерацию резюме и презентаций с помощью ИИ, повышение возможностей моделирования, а также извлечение релевантной информации из больших объемов документов по регулированию.

Эти демонстрации привели к подробным обменам мнениями по вопросам внедрения, извлеченным урокам и способам выявления высокоценных применений.

Ключевые выводы по внедрению ИИ в ядерном регулировании

Участники выделили несколько ключевых выводов. Существует явная необходимость создать структурированные рамки для ИИ в регуляторных органах, подкрепленные определенными процедурами и руководствами.

Хорошо очерченные проекты, как ожидается, будут работать более эффективно, в то время как наличие четких критериев успеха для инструментов ИИ и инициатив считается обязательным.

Модели локального размещения были определены как возможный способ решения проблем, связанных с кибербезопасностью, суверенитетом данных и защитой данных. Одновременно экспертные знания человека остаются центральными для принятия решений и для интерпретации результатов, сгенерированных ИИ.

Семинар содействовал открытому сравнению национальных подходов: регуляторы делились опытом внедрения и выявляли общие опасения. Обмены также указали на области, где более тесное международное сотрудничество могло бы помочь в решении общих задач.

Глобальное сотрудничество и следующие шаги для регуляторов

Г-н Эету Ахонен, заместитель председателя WGNT, возглавил обсуждения и подчеркнул ценность сотрудничества между юрисдикциями.

«Этот семинар продемонстрировал ценность международного сотрудничества. Каждый регулятор изучает ИИ под разным углом, но опыт, который у нас есть при внедрении инструментов ИИ, при решении задач кибербезопасности и при обеспечении человеческого надзора, удивительно похож. Открыто делясь и учась друг у друга, мы укрепляем нашу способность ответственно и эффективно применять ИИ для повышения ядерной безопасности».

WGNT, организовавшая мероприятие, служит платформой для обмена мнениями между регуляторами и организациями технической поддержки по вопросам надзора за emerging technologies на протяжении всего их жизненного цикла. Ее работа поддерживает развитие общего понимания и помогает определить пути к согласованным регуляторным позициям.

NEA планирует опубликовать отдельную брошюру с обобщением результатов семинара, включая ключевые проблемы, извлеченные уроки и рекомендуемые практики интеграции ИИ в процессы регулирования.

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.

Связанные статьи

Генеральный директор Google Cloud: Gemini будет обеспечивать запуск персонализированной Siri от Apple в 2026 году

Резюме: Gemini будет поддерживать персонализированную Apple Siri в 2026 году, созданную на основе моделей Apple Foundation Models и сотрудничества с Gemini; Apple тестирует чатоподобную Siri в iOS 27/macOS 27, которая запланирована к показу на WWDC 2026. Аннотация: Google Cloud's Gemini должен обеспечивать персонализированную Apple Siri к 2026 году, сочетая Gemini с Apple's Foundation Models в рамках сотрудничества примерно на $1 миллиардов. Apple тестирует переработанную, чатоподобную Siri в iOS 27/macOS 27, с интерфейсом Dynamic Island и новыми функциями, до запланированного на WWDC 2026 анонса 8 июня.

GateNews10м назад

Сделка SpaceX-Cursor $60B предоставляет новые доказательства в поддержку аргументов СБФ о помиловании

Аннотация SpaceX объявляет партнерство $60 миллиарда с Cursor с опционом на приобретение, формируя ходатайство СБФ о помиловании, поскольку ранняя доля Cursor у Alameda сегодня могла бы стоить примерно $3 миллиарда. Материал рассматривает утверждения СБФ о неплатежеспособности, публичные действия его родителей, возражения кредиторов и крайне малые шансы на помилование. Краткое содержание Сделка SpaceX-Cursor подпитывает ходатайство СБФ о помиловании; доля Alameda $200k составила бы ~ $3B сегодня (15,000x). СБФ утверждает о неплатежеспособности FTX; рынки показывают низкие шансы на помилование; Трамп вряд ли помилует.

GateNews17м назад

Акции Chegg обрушились на 99%, поскольку ИИ нарушает рынок Edtech

Кратко: Chegg взлетела на фоне спроса на онлайн-образование, затем инструменты на базе ИИ нарушили ее модель, что привело к массовым увольнениям и падению ниже $2, при этом более широкие изменения, обусловленные ИИ, ударили по майнерам криптовалют и финтех-компаниям. Аннотация: В этой статье рассматривается рост Chegg как любимца edtech в эпоху пандемии и ее последующее падение на фоне быстрого внедрения генеративного ИИ, который дает быстрые ответы и подрывает ценностное предложение Chegg. В ней описываются увольнения в 2025 году и обвал акций до уровня, близкого к исключению из листинга, а также опыт Chegg вписывается в более широкий контекст сбоя, вызванного ИИ и меняющего технологический сектор и криптоиндустрию: майнеры Bitcoin переходят к операциям на базе ИИ, а AI-ориентированные стратегии заново определяют конкурентоспособность в финтехе и за его пределами.

CryptoFrontier27м назад

OpenAI выпустила модель с открытым исходным кодом для обнаружения и редактирования ПДн

Аннотация: Фильтр конфиденциальности OpenAI — это модель с открытым исходным кодом, выполняемая локально, которая обнаруживает и редактирует ПДн (персональные данные) в тексте. Она поддерживает большие контексты, выявляет множество категорий ПДн и предназначена для рабочих процессов с сохранением конфиденциальности, таких как подготовка данных, индексация, логирование и модерация. Фильтр конфиденциальности OpenAI — это локально запускаемая модель с открытым исходным кодом (128k-token context), которая обнаруживает и редактирует ПДн (персональные данные) в тексте, охватывая контактные, финансовые и учетные данные для рабочих процессов по защите конфиденциальности.

GateNews1ч назад

OpenAI планирует развернуть 30 ГВт вычислительных мощностей к 2030 году

OpenAI планирует обеспечить 30 ГВт вычислительных мощностей к 2030 году, чтобы удовлетворить растущий спрос на ИИ, при этом уже завершено 8 ГВт из целевых 10 ГВт на 2025 год. Расширение сигнализирует о стратегии наращивания инфраструктуры для разработки и развертывания ИИ следующего поколения. OpenAI намерена достичь 30 ГВт вычислительных мощностей к 2030 году, чтобы удовлетворить растущий спрос на ИИ, уже завершив 8 ГВт из целевого показателя 10 ГВт на 2025 год. Действие отражает стратегическое расширение инфраструктуры для поддержки разработки и развертывания ИИ следующего поколения.

GateNews1ч назад

Агент 360 для обнаружения уязвимостей на базе ИИ находит почти 1 000 нулевых дней с эксплойтом, конкурируя с Mythos

Агент на базе ИИ от 360 Digital Security утверждает, что нашёл около 1 000 новых уязвимостей, включая в Office и OpenClaw; сейчас ИИ является ключевым для обнаружения и подготовки цепочек эксплуатации, соперничая с Mythos. Абстракт: В отчёте, на который ссылается Bloomberg, говорится, что Vulnerability Discovery Agent компании 360 Digital Security на базе ИИ выявил почти 1 000 ранее неизвестных уязвимостей за последние месяцы, включая уязвимости в Microsoft Office и в фреймворке OpenClaw. Компания заявляет, что ИИ стал основным движком для обнаружения уязвимостей, и объявила об инструменте на базе ИИ, который ускорит построение цепочек эксплуатации. Бенинкаса описывает 360 как конкурента Mythos от Anthropic на основе обзора китайскоязычных анонсов компании, сделанного Natto Thoughts.

GateNews1ч назад
комментарий
0/400
Нет комментариев