¡Preocupación por que corredores adopten OpenClaw! ¿Necesita Taiwán un manual de seguridad para criar langostas? ¡La Comisión Financiera respondió!

区块客

Autor: Ariel, Ciudad Cripto

El agente AI con LOGO de langosta, OpenClaw, ha sido un éxito mundial, y el gobierno chino ha emitido el “Manual de Seguridad para Crustáceos” para alertar sobre los riesgos relacionados. El legislador Lai Shih-bao observó que ya hay corredores de bolsa y analistas del mercado de valores en el país que están adoptando gradualmente OpenClaw. ¿Quién será responsable si el agente AI realiza órdenes incorrectas? Y llamó a la Comisión de Finanzas a presentar un manual de seguridad específico para la industria financiera sobre la cría de langostas.
La Comisión de Finanzas, Peng Jinlong, respondió al legislador que él mismo no ha utilizado OpenClaw, pero que ha observado que este fenómeno es bastante común. Las unidades relevantes dentro de la Comisión ya están investigando medidas futuras y monitoreando el uso por parte de las instituciones financieras.
Peng Jinlong señaló que la Comisión ya publicó anteriormente las “Directrices para el Uso de AI en la Industria Financiera”, y que la industria financiera ya cuenta con ciertos mecanismos de seguridad cibernética y control interno para nuevas tecnologías. Si estas herramientas afectan la seguridad operativa, se revisarán y elaborarán manuales de seguridad relacionados.

Seis puntos clave de las Directrices para el Uso de AI en la Industria Financiera por la Comisión de Finanzas

  • Establecer mecanismos de gobernanza y responsabilidad: Las instituciones financieras deben asumir responsabilidad por los sistemas AI, designar altos directivos para supervisar y crear estructuras, implementando gestión de riesgos y capacitación del personal.
  • Valorar la equidad y los valores centrados en las personas: Evitar prejuicios algorítmicos que causen injusticias, en línea con principios centrados en las personas; los resultados generados por AI deben ser controlados objetivamente por personal humano.
  • Proteger la privacidad y los derechos del cliente: Salvaguardar la privacidad y gestionar adecuadamente los datos de los clientes; al ofrecer servicios con AI, respetar las opciones del cliente y recordar alternativas.
  • Asegurar la robustez y seguridad del sistema: Garantizar que los sistemas AI sean robustos y seguros para evitar daños; si se usan sistemas AI de terceros, deben gestionarse y supervisarse adecuadamente los riesgos.
  • Implementar transparencia y explicabilidad: Asegurar que el funcionamiento de AI sea transparente y explicable; cuando AI interactúe directamente con consumidores, se debe divulgar información de manera proactiva.
  • Fomentar el desarrollo sostenible: La aplicación de AI debe incorporar principios de sostenibilidad, reducir desigualdades y proteger el medio ambiente; además, capacitar a los empleados para adaptarse a los cambios y mantener sus derechos laborales.

Fuente de la imagen: Generación AI de Gemini | Seis puntos clave de las Directrices para el Uso de AI en la Industria Financiera (Diagrama ilustrativo de AI)

El Departamento de Desarrollo Digital ya ha respondido a los problemas de seguridad en la cría de langostas
Respecto a las preocupaciones de seguridad cibernética relacionadas con los agentes AI, el director del Departamento de Desarrollo Digital, Lin Yi-ching, indicó en una audiencia el mismo día que, para resolver los problemas de seguridad y aumentar la autonomía tecnológica, Taiwán está promoviendo activamente una AI soberana, asegurando que los modelos de AI utilizados por el gobierno y las infraestructuras clave operen dentro del país y bajo regulación legal, y mencionó que Nvidia lanzó recientemente la plataforma NemoClaw, cuyo objetivo es fortalecer la protección de seguridad de los agentes AI.
Para construir una capacidad de procesamiento exclusiva en Taiwán, el Departamento de Desarrollo Digital ha recibido solicitudes de inversión en centros de cálculo por parte de Foxconn, y está en discusión con el Ministerio de Finanzas y la Comisión de Finanzas para abrir fondos del sector asegurador, evitando que los modelos de AI en Taiwán dependan completamente del extranjero.

¿Qué dice el Manual de Seguridad para Crustáceos en China?
OpenClaw fue desarrollado por el ingeniero austriaco Peter Steinberger, que inicialmente fue muy popular en el mundo tecnológico, y la instalación y uso de OpenClaw se denomina “criar langostas”. Recientemente, la tendencia de criar langostas se ha extendido al mercado chino, donde la gente común también ha comenzado a criar langostas, incluso surgiendo servicios de pago para que ingenieros las instalen en su lugar.
En respuesta, el Ministerio de Seguridad Nacional de China publicó también un manual de cría segura de langostas, advirtiendo sobre riesgos inherentes como la toma de control del host, el robo de datos y la manipulación de opiniones, y llamó a los usuarios a limitar estrictamente el alcance de las operaciones y a operar en entornos aislados (como máquinas virtuales dedicadas o sandbox).

Donde hay langostas, también hay desinstalación de langostas
Aunque la tendencia de criar langostas está en auge, en la comunidad china ya se observa un cambio de la instalación masiva a la desinstalación paga de langostas. El BBC reportó que, según expertos, esta ola de retiro se debe a que la tecnología y los costos operativos de OpenClaw son muy altos, ya que cada acción requiere fondos para activar modelos de AI.
Además, los riesgos de seguridad también son una gran preocupación. El Centro Nacional de Respuesta a Emergencias de Internet de China señaló que un uso inapropiado puede provocar el robo de información sensible como fotos y cuentas de pago, e incluso errores en la interpretación de instrucciones por parte de AI que puedan eliminar datos por error. Para los usuarios comunes, la utilidad práctica del software actualmente es limitada, lo que ha impulsado esta ola de desinstalaciones.

Ver originales
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios