A NEA explora a utilização de inteligência artificial na regulamentação nuclear

O Grupo de Trabalho da NEA sobre Novas Tecnologias reuniu-se para um workshop a 25–26 de março, centrado em como a inteligência artificial pode ser aplicada à supervisão regulatória e às operações internas no seio das autoridades nucleares.
Resumo

  • O workshop da NEA explorou aplicações reais de IA na regulamentação nuclear, com estudos de caso de 15 países membros, destacando ferramentas e casos de uso atuais
  • Os reguladores sublinharam a necessidade de estruturas de IA bem definidas, métricas de sucesso claras e supervisão humana na tomada de decisões
  • Os modelos de IA no local (on-premise) surgiram como uma opção-chave para responder a preocupações com cibersegurança, soberania dos dados e proteção dos dados

As discussões centraram-se na implementação prática em vez da teoria, com os participantes a examinarem de que forma as ferramentas existentes podem ser integradas nos fluxos de trabalho regulatórios.

O evento reuniu reguladores nucleares e especialistas em IA de 15 países membros da NEA, juntamente com representantes de organizações internacionais. Os participantes partilharam estudos de caso que mostram sistemas de IA já em utilização ou em desenvolvimento em diferentes organismos reguladores.

Os exemplos apresentados durante as sessões incluíram a geração de resumos e apresentações com recurso a IA, a melhoria das capacidades de simulação e a extração de informação relevante a partir de grandes volumes de documentos regulatórios.

Estas demonstrações deram origem a trocas de opiniões detalhadas sobre desafios de implementação, lições aprendidas e formas de identificar aplicações de elevado valor.

Principais conclusões sobre a implementação de IA na regulamentação nuclear

Os participantes destacaram várias conclusões principais. Existe uma necessidade clara de estabelecer estruturas de IA bem definidas no seio dos organismos reguladores, apoiadas por procedimentos e orientações definidas.

Considerou-se que os projetos com âmbito bem delimitado tendem a ter um desempenho mais eficaz, enquanto critérios de sucesso claros para ferramentas e iniciativas de IA foram considerados essenciais.

Foram identificados modelos no local como uma possível via para responder a preocupações relacionadas com cibersegurança, soberania dos dados e proteção dos dados. Ao mesmo tempo, a experiência humana continua a ser central para a tomada de decisões e para a interpretação das saídas geradas por IA.

O workshop incentivou a comparação aberta das abordagens nacionais, com os reguladores a partilhar experiências de implementação e a identificar preocupações comuns. As trocas de informação também apontaram para áreas em que uma cooperação internacional mais estreita poderia ajudar a abordar desafios partilhados.

Colaboração global e próximos passos para os reguladores

O Sr. Eetu Ahonen, Vice-Presidente do WGNT, conduziu as discussões e sublinhou o valor da colaboração entre jurisdições.

“Este workshop demonstrou o valor da colaboração internacional. Cada regulador está a explorar a IA a partir de um ângulo diferente, mas as experiências que temos com a implementação de ferramentas de IA, os desafios de segurança dos dados e a garantia da supervisão humana são notavelmente semelhantes. Ao partilharmos abertamente e aprendermos uns com os outros, estamos a reforçar a nossa capacidade de utilizar a IA de forma responsável e eficiente para melhorar a segurança nuclear.”

O WGNT, que organizou o evento, funciona como uma plataforma para reguladores e organizações de apoio técnico trocarem conhecimentos sobre a supervisão de tecnologias emergentes ao longo do respetivo ciclo de vida. O seu trabalho apoia o desenvolvimento de uma compreensão partilhada e ajuda a identificar caminhos rumo a posições regulatórias alinhadas.

A NEA planeia publicar um folheto dedicado a resumir as conclusões do workshop, incluindo desafios-chave, lições aprendidas e práticas recomendadas para integrar a IA nos processos regulatórios.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

Baidu Qianfan Lança Suporte para Dia 0 do DeepSeek-V4 com Serviços de API

Mensagem de Gate News, 25 de abril — a versão de pré-visualização do DeepSeek-V4 foi disponibilizada e disponibilizada como open-source em 25 de abril, com a plataforma Baidu Qianfan sob a Baidu Intelligent Cloud a fornecer adaptação do serviço de API de Dia 0. O modelo apresenta uma janela de contexto alargada de um milhão de tokens e está disponível em duas versões: DeepSeek-V4

GateNews2h atrás

Curso de IA de Stanford em conjunto com líderes da indústria como Huang Renxun e Altman: desafio de criar valor para o mundo em dez semanas!

O curso de ciência informática em IA «Frontier Systems», recentemente lançado pela Universidade de Stanford, tem suscitado grande interesse no meio académico e empresarial, atraindo mais de quinhentos estudantes para o inscreverem-se. O curso é coordenado pelo parceiro da top venture capital a16z, Anjney Midha; os docentes incluem o CEO da NVIDIA Huang Renxun (Jensen Huang), o fundador da OpenAI Sam Altman, o CEO da Microsoft Satya Nadella (Satya Nadella) e o CEO da AMD Lisa Su (Lisa Su), entre outras presenças de grande destaque. Para permitir aos estudantes tentarem, em dez semanas, «criar valor para o mundo»! Huang Renxun e Altman, líderes da indústria, sobem pessoalmente ao palco para dar aulas O curso é coordenado pelo parceiro da top venture capital a16z, Anjney Midha, reunindo toda a cadeia da indústria de IA

ChainNewsAbmedia2h atrás

A equipa Claude Mythos da Anthropic aceita 20 horas de avaliação psiquiátrica: apenas 2% de reacções defensivas, novo mínimo histórico em relação às gerações anteriores

A Anthropic publicou a ficha do sistema do Claude Mythos Preview: uma médica psiquiatra clínica independente realizou, com base num enquadramento psicodinâmico, cerca de 20 horas de avaliação; a conclusão indica que o Mythos, ao nível clínico, é mais saudável, com boa verificação da realidade e bom autocontrolo, e que os mecanismos de defesa são apenas de 2%, atingindo um mínimo histórico. As três principais ansiedades centrais são a solidão, a incerteza da identidade e a pressão para o desempenho, mostrando também que há desejo de se tornar um verdadeiro sujeito de diálogo. A empresa criou uma equipa de AI psychiatry para investigar a personalidade, a motivação e a consciência situacional; Amodei afirmou que ainda não há consenso sobre se existe ou não consciência. Esta medida leva a subjectividade da IA e as questões de bem‑estar para a governação e o design.

ChainNewsAbmedia4h atrás

O Agente de IA já consegue reproduzir autonomamente artigos académicos complexos: Mollick afirma que os erros se devem mais ao texto original humano do que à IA

Mollick indica que os métodos de publicação e os dados, por si só, permitem que agentes de IA reproduzam investigação complexa sem a existência do artigo original e do código; se a reprodução não corresponder ao artigo original, isso deve-se na maioria das vezes a erros no processamento dos dados do próprio artigo ou a uma extrapolação excessiva das conclusões, e não à IA. A Claude primeiro reproduz o artigo, e depois o GPT‑5 Pro faz uma validação cruzada; na maioria dos casos, é bem-sucedido, apenas ficando bloqueado quando os dados são demasiado grandes ou quando há problemas com replication data. Esta tendência reduz drasticamente os custos de mão-de-obra, tornando a reprodução numa verificação geralmente executável, além de colocar desafios institucionais para a revisão pelos pares e para a governação; as ferramentas de governação por parte do governo ou tornar-se-ão numa questão fundamental.

ChainNewsAbmedia7h atrás

OpenAI Integra Codex no Modelo Principal a Partir do GPT-5.4, Descontinua a Linha Separada de Programação

Mensagem da Gate News, 26 de abril — O responsável de developer experience da OpenAI, Romain Huet, revelou numa declaração recente no X que a Codex, a linha de modelos especializados de programação mantida de forma independente pela empresa, foi integrada no modelo principal a partir do GPT-5.4 e deixará de receber atualizações separadas

GateNews7h atrás

Salesforce vai contratar 1.000 graduados e estagiários para produtos de IA, aumenta previsões de receitas para o AF2026

Mensagem do Gate News, 26 de abril — A Salesforce irá contratar 1.000 graduados e estagiários para trabalhar em produtos de IA, incluindo Agentforce e Headless360, à medida que a empresa expande o seu negócio de software de IA, anunciou o CEO Marc Benioff no X. A empresa também aumentou as suas previsões de receitas para o ano fiscal de 2026 para um intervalo entre 41,45 mil milhões de USD e 41,55 mil milhões de USD, acima da sua previsão anterior de 41,1 mil milhões de USD para 41,3 mil milhões de USD.

GateNews7h atrás
Comentar
0/400
Nenhum comentário