La reunión tecnológica más grande del mundo está hablando sobre 'lavado de responsabilidad': Aquí está la razón por la que deberíamos bautizarlos como Palabras del Año

Summer Yue no es la empleada más famosa de Meta. La directora de “investigación en alineación y seguridad de superinteligencia” publica fotos de ella caminando a su perro en la playa y mensajes sobre probar la honestidad de los asistentes de IA. Tiene un número modesto de seguidores en las redes sociales.

Video recomendado


Pero por un día en febrero, Yue se convirtió en la persona más comentada en Meta. No por lanzar un producto nuevo y notable o anunciar un avance en IA agentica, sino por ser descubierta.

“Nada te humilla más que decirle a tu OpenClaw, ‘Confirma antes de actuar’ y verlo acelerar la eliminación de tu bandeja de entrada,” escribió Yue en X—una publicación que ahora tiene cerca de 10 millones de vistas. “No pude detenerlo desde mi teléfono. Tuve que correr a mi Mac mini como si estuviera desactivando una bomba.”

OpenClaw es un “agente autónomo”—un producto de inteligencia artificial que puede realizar tareas de forma independiente. Muy popular en Silicon Valley, ofrece ser tu asistente administrativo constante, el “IA que realmente hace cosas.” Dale acceso a tu diario, tus correos, tu vida, y te ahorrará tiempo y estrés, afirman los desarrolladores del producto. La primera frase en la página web de OpenClaw dice: “Limpia tu bandeja de entrada, envía correos, gestiona tu calendario, te registra en vuelos.”

Yue admitió que cometió un “error de novato.” Probó el asistente en una pequeña lista de correos “de juguete” y luego lo lanzó en toda su bandeja de entrada, que era demasiado grande para los prompts de protección (“Consulta conmigo”) que usó en la prueba piloto. Pero si incluso una directora de superinteligencia en Meta tiene dificultades para navegar en el mundo de la IA agentica y los “efectos de compactación,” ¿qué esperanza tenemos los demás?

Leer más: CEO de Qualcomm: ‘La resistencia es inútil’ ante la llegada de la revolución móvil 6G

Es una conversación vital, tan importante que en el Mobile World Congress de esta semana en Barcelona—el evento tecnológico más grande del mundo—se debatió en el escenario principal.

“Por supuesto, todos aquí en el Congreso Mundial han estado hablando sobre OpenClaw y cómo podemos usar agentes,” dijo Kate Crawford, profesora de investigación en la Universidad del Sur de California.

“Pero luego vimos a la jefa de seguridad de IA de Meta usar OpenClaw, y eliminó toda su bandeja de entrada. Esa es la jefa de seguridad de Meta. Entonces, si ella tiene problemas, creo que todos debemos preguntarnos: ‘¿Cómo aseguramos que estos sistemas estén realmente reforzados? ¿Cómo garantizamos que sean rigurosamente probados? ¿Cómo podemos delegar en ellos de manera confiable?’ Y esa es realmente la dificultad más grande, ¿verdad?”

Correcto. Cuando algo sale mal, ¿quién es responsable? ¿El usuario? ¿El desarrollador? ¿La falta de regulación? Cuando la realidad de la IA choca con la promesa de la IA, ¿qué hacemos?

La bandeja de entrada de Yue puede ser solo de suma importancia para ella. Cuando se trata de la relación entre la tecnología y, por ejemplo, nuestra salud, o, atención, toma nota, la defensa de la nación, eso es un asunto muy diferente. No hace mucho, Grok, el bot de inteligencia artificial de xAI, estaba “desvestiendo” imágenes de mujeres y niñas para el disgusto de millones. La amenaza de acciones gubernamentales y estatales finalmente llevó a un cambio de enfoque.

“¿Cómo aseguramos que estos sistemas estén realmente reforzados? ¿Cómo garantizamos que sean rigurosamente probados?”

Kate Crawford, profesora de investigación en la Universidad del Sur de California

“¿Cómo construyes realmente la responsabilidad?” preguntó Crawford. “Esto es lo que todos queremos. Si vas a empezar a usar agentes para reservar tus vuelos, organizar tus citas médicas y actividades aún más íntimas y confiables en tu vida diaria, quieres saber que la información estará protegida.

“¿Entonces, cómo lo pruebas? ¿Cómo aseguras que eso esté sucediendo? Si miramos lo que ha pasado en los últimos 10 años en el espacio tecnológico, lamentablemente hemos visto mucha lavado de responsabilidad—que es cuando las empresas dicen, ‘Bueno, no lo sé. Quiero decir, fue el algoritmo.’”

Eso es insuficiente. Crawford exige transparencia total y una auditoría del “entrenamiento del agente,” un proceso de extremo a extremo que revele qué salió mal y quién es responsable. Las empresas tecnológicas deben escuchar y actuar. Habrá un número creciente de Summer Yues por ahí—y sin duda significará mucho más que unos pocos correos perdidos y una publicación honesta en X.

Únase a nosotros en una conversación virtual de la C-Suite de Fortune 500 Europa, en colaboración con Syndio, sobre cómo dominar las decisiones laborales y la transparencia salarial en la era de la IA. Dirigido a líderes de RRHH globales y regionales, esta sesión explora cómo los CHROs están usando IA para tomar decisiones salariales más inteligentes, gestionar riesgos regulatorios y fortalecer la confianza en la fuerza laboral. Curado para CHROs y líderes senior de RRHH. Regístrese ahora.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado