Autor: Ariel, Ciudad Cripto
El agente AI con LOGO de langosta, OpenClaw, ha sido un éxito mundial, y el gobierno chino ha emitido el “Manual de Seguridad para Crustáceos” para alertar sobre los riesgos relacionados. El legislador Lai Shih-bao observó que ya hay corredores de bolsa y analistas del mercado de valores en el país que están adoptando gradualmente OpenClaw. ¿Quién será responsable si el agente AI realiza órdenes incorrectas? Y llamó a la Comisión de Finanzas a presentar un manual de seguridad específico para la industria financiera sobre la cría de langostas.
La Comisión de Finanzas, Peng Jinlong, respondió al legislador que él mismo no ha utilizado OpenClaw, pero que ha observado que este fenómeno es bastante común. Las unidades relevantes dentro de la Comisión ya están investigando medidas futuras y monitoreando el uso por parte de las instituciones financieras.
Peng Jinlong señaló que la Comisión ya publicó anteriormente las “Directrices para el Uso de AI en la Industria Financiera”, y que la industria financiera ya cuenta con ciertos mecanismos de seguridad cibernética y control interno para nuevas tecnologías. Si estas herramientas afectan la seguridad operativa, se revisarán y elaborarán manuales de seguridad relacionados.
Seis puntos clave de las Directrices para el Uso de AI en la Industria Financiera por la Comisión de Finanzas
Fuente de la imagen: Generación AI de Gemini | Seis puntos clave de las Directrices para el Uso de AI en la Industria Financiera (Diagrama ilustrativo de AI)
El Departamento de Desarrollo Digital ya ha respondido a los problemas de seguridad en la cría de langostas
Respecto a las preocupaciones de seguridad cibernética relacionadas con los agentes AI, el director del Departamento de Desarrollo Digital, Lin Yi-ching, indicó en una audiencia el mismo día que, para resolver los problemas de seguridad y aumentar la autonomía tecnológica, Taiwán está promoviendo activamente una AI soberana, asegurando que los modelos de AI utilizados por el gobierno y las infraestructuras clave operen dentro del país y bajo regulación legal, y mencionó que Nvidia lanzó recientemente la plataforma NemoClaw, cuyo objetivo es fortalecer la protección de seguridad de los agentes AI.
Para construir una capacidad de procesamiento exclusiva en Taiwán, el Departamento de Desarrollo Digital ha recibido solicitudes de inversión en centros de cálculo por parte de Foxconn, y está en discusión con el Ministerio de Finanzas y la Comisión de Finanzas para abrir fondos del sector asegurador, evitando que los modelos de AI en Taiwán dependan completamente del extranjero.
¿Qué dice el Manual de Seguridad para Crustáceos en China?
OpenClaw fue desarrollado por el ingeniero austriaco Peter Steinberger, que inicialmente fue muy popular en el mundo tecnológico, y la instalación y uso de OpenClaw se denomina “criar langostas”. Recientemente, la tendencia de criar langostas se ha extendido al mercado chino, donde la gente común también ha comenzado a criar langostas, incluso surgiendo servicios de pago para que ingenieros las instalen en su lugar.
En respuesta, el Ministerio de Seguridad Nacional de China publicó también un manual de cría segura de langostas, advirtiendo sobre riesgos inherentes como la toma de control del host, el robo de datos y la manipulación de opiniones, y llamó a los usuarios a limitar estrictamente el alcance de las operaciones y a operar en entornos aislados (como máquinas virtuales dedicadas o sandbox).
Donde hay langostas, también hay desinstalación de langostas
Aunque la tendencia de criar langostas está en auge, en la comunidad china ya se observa un cambio de la instalación masiva a la desinstalación paga de langostas. El BBC reportó que, según expertos, esta ola de retiro se debe a que la tecnología y los costos operativos de OpenClaw son muy altos, ya que cada acción requiere fondos para activar modelos de AI.
Además, los riesgos de seguridad también son una gran preocupación. El Centro Nacional de Respuesta a Emergencias de Internet de China señaló que un uso inapropiado puede provocar el robo de información sensible como fotos y cuentas de pago, e incluso errores en la interpretación de instrucciones por parte de AI que puedan eliminar datos por error. Para los usuarios comunes, la utilidad práctica del software actualmente es limitada, lo que ha impulsado esta ola de desinstalaciones.